repo_id
stringlengths
5
115
size
int64
590
5.01M
file_path
stringlengths
4
212
content
stringlengths
590
5.01M
ts-phantomnk90/haberdashery
64,224
asm/aes192gcm_haswell.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI0_1: .zero 8 .quad -4467570830351532032 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_2: .quad -4467570830351532032 .section .text.haberdashery_aes192gcm_haswell_init,"ax",@progbits .globl haberdashery_aes192gcm_haswell_init .p2align 4, 0x90 .type haberdashery_aes192gcm_haswell_init,@function haberdashery_aes192gcm_haswell_init: .cfi_startproc cmpq $24, %rdx jne .LBB0_2 vmovdqu (%rsi), %xmm2 vmovq 16(%rsi), %xmm0 vpslldq $4, %xmm2, %xmm1 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vaeskeygenassist $1, %xmm0, %xmm3 vpslldq $12, %xmm2, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpshufd $85, %xmm3, %xmm3 vpxor %xmm2, %xmm1, %xmm1 vmovdqa %xmm2, -120(%rsp) vpxor %xmm3, %xmm1, %xmm1 vpshufd $255, %xmm1, %xmm3 vpslldq $4, %xmm0, %xmm4 vpxor %xmm0, %xmm4, %xmm4 vpxor %xmm3, %xmm4, %xmm4 vpunpcklqdq %xmm1, %xmm0, %xmm14 vmovdqa %xmm14, -24(%rsp) vpalignr $8, %xmm1, %xmm4, %xmm15 vmovdqa %xmm15, -40(%rsp) vpslldq $4, %xmm1, %xmm0 vpslldq $8, %xmm1, %xmm3 vaeskeygenassist $2, %xmm4, %xmm5 vpxor %xmm3, %xmm0, %xmm0 vpslldq $12, %xmm1, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpshufd $85, %xmm5, %xmm3 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm3 vpshufd $255, %xmm3, %xmm0 vpslldq $4, %xmm4, %xmm1 vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpslldq $4, %xmm3, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vaeskeygenassist $4, %xmm0, %xmm4 vpslldq $12, %xmm3, %xmm5 vpxor %xmm5, %xmm1, %xmm1 vpshufd $85, %xmm4, %xmm4 vpxor %xmm3, %xmm1, %xmm1 vmovdqa %xmm3, -56(%rsp) vpxor %xmm1, %xmm4, %xmm1 vpshufd $255, %xmm1, %xmm4 vpslldq $4, %xmm0, %xmm5 vpxor %xmm0, %xmm5, %xmm5 vpxor %xmm4, %xmm5, %xmm7 vpunpcklqdq %xmm1, %xmm0, %xmm4 vmovdqa %xmm4, -72(%rsp) vpalignr $8, %xmm1, %xmm7, %xmm5 vmovdqa %xmm5, -88(%rsp) vpslldq $4, %xmm1, %xmm0 vpslldq $8, %xmm1, %xmm6 vaeskeygenassist $8, %xmm7, %xmm8 vpxor %xmm6, %xmm0, %xmm0 vpslldq $12, %xmm1, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpshufd $85, %xmm8, %xmm6 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpshufd $255, %xmm6, %xmm0 vpslldq $4, %xmm7, %xmm1 vpxor %xmm7, %xmm1, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpslldq $4, %xmm6, %xmm1 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm1, %xmm1 vaeskeygenassist $16, %xmm0, %xmm7 vpslldq $12, %xmm6, %xmm8 vpxor %xmm1, %xmm8, %xmm1 vpshufd $85, %xmm7, %xmm7 vpxor %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm7, %xmm1 vpshufd $255, %xmm1, %xmm7 vpslldq $4, %xmm0, %xmm8 vpxor %xmm0, %xmm8, %xmm8 vpxor %xmm7, %xmm8, %xmm10 vpunpcklqdq %xmm1, %xmm0, %xmm7 vmovdqa %xmm7, -104(%rsp) vpalignr $8, %xmm1, %xmm10, %xmm8 vpslldq $4, %xmm1, %xmm0 vpslldq $8, %xmm1, %xmm9 vaeskeygenassist $32, %xmm10, %xmm11 vpxor %xmm0, %xmm9, %xmm0 vpslldq $12, %xmm1, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpshufd $85, %xmm11, %xmm9 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm9, %xmm9 vpshufd $255, %xmm9, %xmm0 vpslldq $4, %xmm10, %xmm1 vpxor %xmm1, %xmm10, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpslldq $4, %xmm9, %xmm1 vpslldq $8, %xmm9, %xmm10 vpxor %xmm1, %xmm10, %xmm1 vaeskeygenassist $64, %xmm0, %xmm10 vpslldq $12, %xmm9, %xmm11 vpxor %xmm1, %xmm11, %xmm1 vpshufd $85, %xmm10, %xmm10 vpxor %xmm1, %xmm9, %xmm1 vpxor %xmm1, %xmm10, %xmm1 vpshufd $255, %xmm1, %xmm10 vpslldq $4, %xmm0, %xmm11 vpxor %xmm0, %xmm11, %xmm11 vpxor %xmm10, %xmm11, %xmm12 vpunpcklqdq %xmm1, %xmm0, %xmm10 vpalignr $8, %xmm1, %xmm12, %xmm11 vpslldq $4, %xmm1, %xmm0 vpslldq $8, %xmm1, %xmm13 vaeskeygenassist $128, %xmm12, %xmm12 vpxor %xmm0, %xmm13, %xmm0 vpslldq $12, %xmm1, %xmm13 vpxor %xmm0, %xmm13, %xmm0 vpshufd $85, %xmm12, %xmm12 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vaesenc %xmm14, %xmm2, %xmm0 vaesenc %xmm15, %xmm0, %xmm0 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm11, %xmm0, %xmm0 vaesenclast %xmm12, %xmm0, %xmm0 vpshufb .LCPI0_0(%rip), %xmm0, %xmm0 vpsrlq $63, %xmm0, %xmm1 vpaddq %xmm0, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm13 vpor %xmm0, %xmm13, %xmm0 vpxor %xmm13, %xmm13, %xmm13 vpblendd $12, %xmm1, %xmm13, %xmm1 vpsllq $63, %xmm1, %xmm13 vpxor %xmm0, %xmm13, %xmm0 vpsllq $62, %xmm1, %xmm13 vpsllq $57, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm1 vpxor %xmm1, %xmm0, %xmm13 vpclmulqdq $0, %xmm13, %xmm13, %xmm0 vpbroadcastq .LCPI0_2(%rip), %xmm15 vpclmulqdq $16, %xmm15, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $17, %xmm13, %xmm13, %xmm1 vpshufd $78, %xmm0, %xmm14 vpxor %xmm1, %xmm14, %xmm1 vpclmulqdq $16, %xmm15, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm14 vpclmulqdq $16, %xmm13, %xmm14, %xmm0 vpclmulqdq $1, %xmm13, %xmm14, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm13, %xmm14, %xmm1 vpslldq $8, %xmm0, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $16, %xmm15, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm2 vpclmulqdq $17, %xmm13, %xmm14, %xmm1 vpxor %xmm2, %xmm4, %xmm2 vpsrldq $8, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpshufd $78, %xmm2, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $16, %xmm15, %xmm2, %xmm1 vpxor %xmm1, %xmm0, %xmm5 vpclmulqdq $0, %xmm5, %xmm5, %xmm0 vpclmulqdq $16, %xmm15, %xmm0, %xmm2 vpclmulqdq $0, %xmm14, %xmm14, %xmm4 vpclmulqdq $16, %xmm15, %xmm4, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm2 vpshufd $78, %xmm4, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $17, %xmm14, %xmm14, %xmm1 vpshufd $78, %xmm0, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $16, %xmm15, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $17, %xmm5, %xmm5, %xmm3 vpshufd $78, %xmm2, %xmm4 vpclmulqdq $16, %xmm13, %xmm0, %xmm1 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $1, %xmm13, %xmm0, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm15, %xmm2, %xmm2 vpclmulqdq $0, %xmm13, %xmm0, %xmm4 vpslldq $8, %xmm1, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $16, %xmm15, %xmm4, %xmm7 vpxor %xmm2, %xmm3, %xmm2 vpshufd $78, %xmm4, %xmm3 vpxor %xmm3, %xmm7, %xmm3 vpsrldq $8, %xmm1, %xmm1 vpclmulqdq $17, %xmm13, %xmm0, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm15, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpxor %xmm4, %xmm1, %xmm1 vmovaps -120(%rsp), %xmm3 vmovaps %xmm3, (%rdi) vmovaps -24(%rsp), %xmm3 vmovaps %xmm3, 16(%rdi) vmovaps -40(%rsp), %xmm3 vmovaps %xmm3, 32(%rdi) vmovaps -56(%rsp), %xmm3 vmovaps %xmm3, 48(%rdi) vmovaps -72(%rsp), %xmm3 vmovaps %xmm3, 64(%rdi) vmovaps -88(%rsp), %xmm3 vmovaps %xmm3, 80(%rdi) vmovdqa %xmm6, 96(%rdi) vmovaps -104(%rsp), %xmm3 vmovaps %xmm3, 112(%rdi) vmovdqa %xmm8, 128(%rdi) vmovdqa %xmm9, 144(%rdi) vmovdqa %xmm10, 160(%rdi) vmovdqa %xmm11, 176(%rdi) vmovdqa %xmm12, 192(%rdi) vmovdqa %xmm13, 208(%rdi) vmovdqa %xmm14, 224(%rdi) vmovdqa %xmm5, 240(%rdi) vmovdqa %xmm0, 256(%rdi) vmovdqa %xmm1, 272(%rdi) vmovdqa %xmm2, 288(%rdi) .LBB0_2: xorl %eax, %eax cmpq $24, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes192gcm_haswell_init, .Lfunc_end0-haberdashery_aes192gcm_haswell_init .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI1_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_1: .long 1 .long 0 .long 0 .long 0 .LCPI1_2: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_3: .zero 8 .quad -4467570830351532032 .LCPI1_4: .long 2 .long 0 .long 0 .long 0 .LCPI1_5: .long 3 .long 0 .long 0 .long 0 .LCPI1_6: .long 4 .long 0 .long 0 .long 0 .LCPI1_7: .long 5 .long 0 .long 0 .long 0 .LCPI1_8: .long 6 .long 0 .long 0 .long 0 .LCPI1_9: .long 7 .long 0 .long 0 .long 0 .LCPI1_10: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_11: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_12: .zero 16 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI1_13: .quad -4467570830351532032 .section .text.haberdashery_aes192gcm_haswell_encrypt,"ax",@progbits .globl haberdashery_aes192gcm_haswell_encrypt .p2align 4, 0x90 .type haberdashery_aes192gcm_haswell_encrypt,@function haberdashery_aes192gcm_haswell_encrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $440, %rsp .cfi_def_cfa_offset 496 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 496(%rsp), %r15 xorl %eax, %eax cmpq 512(%rsp), %r15 jne .LBB1_43 cmpq $16, 528(%rsp) setne %r10b movabsq $2305843009213693950, %r11 cmpq %r11, %r8 seta %r11b orb %r10b, %r11b jne .LBB1_43 movq %r15, %r10 shrq $5, %r10 cmpq $2147483647, %r10 setae %r10b cmpq $12, %rdx setne %dl orb %r10b, %dl jne .LBB1_43 vmovd (%rsi), %xmm0 vpinsrd $1, 4(%rsi), %xmm0, %xmm0 vpinsrd $2, 8(%rsi), %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm0 vmovdqa %xmm0, 112(%rsp) vpxor %xmm15, %xmm15, %xmm15 testq %r8, %r8 je .LBB1_20 cmpq $96, %r8 jb .LBB1_5 vmovdqu (%rcx), %xmm1 vmovdqu 16(%rcx), %xmm2 vmovdqu 32(%rcx), %xmm3 vmovdqu 48(%rcx), %xmm4 vmovdqu 64(%rcx), %xmm5 vmovdqu 80(%rcx), %xmm9 vmovdqa .LCPI1_2(%rip), %xmm0 vpshufb %xmm0, %xmm1, %xmm13 vpshufb %xmm0, %xmm2, %xmm8 vpshufb %xmm0, %xmm3, %xmm6 vpshufb %xmm0, %xmm9, %xmm3 vmovdqa 208(%rdi), %xmm1 vpclmulqdq $0, %xmm3, %xmm1, %xmm9 vpshufb %xmm0, %xmm4, %xmm10 vpclmulqdq $1, %xmm3, %xmm1, %xmm11 vpshufb %xmm0, %xmm5, %xmm5 vpclmulqdq $16, %xmm3, %xmm1, %xmm12 vmovdqa 224(%rdi), %xmm2 vpclmulqdq $17, %xmm3, %xmm1, %xmm7 vmovdqa 240(%rdi), %xmm4 vpclmulqdq $0, %xmm5, %xmm2, %xmm14 vmovdqa 256(%rdi), %xmm3 vpclmulqdq $1, %xmm5, %xmm2, %xmm15 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $16, %xmm5, %xmm2, %xmm12 vpxor %xmm9, %xmm14, %xmm9 vpclmulqdq $17, %xmm5, %xmm2, %xmm5 vpxor %xmm12, %xmm15, %xmm12 vpclmulqdq $0, %xmm10, %xmm4, %xmm14 vpxor %xmm12, %xmm11, %xmm11 vpclmulqdq $1, %xmm10, %xmm4, %xmm12 vpxor %xmm7, %xmm5, %xmm7 vpclmulqdq $16, %xmm10, %xmm4, %xmm15 vmovdqa 272(%rdi), %xmm5 vpclmulqdq $17, %xmm10, %xmm4, %xmm10 vpxor %xmm15, %xmm12, %xmm12 vpclmulqdq $0, %xmm6, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $1, %xmm6, %xmm3, %xmm15 vpxor %xmm14, %xmm9, %xmm9 vpclmulqdq $16, %xmm6, %xmm3, %xmm14 vpxor %xmm15, %xmm12, %xmm12 vpclmulqdq $17, %xmm6, %xmm3, %xmm6 vpxor %xmm12, %xmm11, %xmm11 vpclmulqdq $0, %xmm8, %xmm5, %xmm12 vpxor %xmm6, %xmm10, %xmm6 vpclmulqdq $1, %xmm8, %xmm5, %xmm10 vpxor %xmm6, %xmm7, %xmm6 vmovdqa %xmm6, (%rsp) vpclmulqdq $16, %xmm8, %xmm5, %xmm15 vmovdqa 288(%rdi), %xmm6 vpclmulqdq $0, %xmm13, %xmm6, %xmm7 vpxor %xmm10, %xmm14, %xmm10 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm7, %xmm12, %xmm7 vpxor %xmm7, %xmm9, %xmm9 vpclmulqdq $1, %xmm13, %xmm6, %xmm7 vpxor %xmm7, %xmm10, %xmm7 vpxor %xmm7, %xmm11, %xmm7 vpclmulqdq $16, %xmm13, %xmm6, %xmm10 vpxor %xmm7, %xmm10, %xmm10 vpclmulqdq $17, %xmm8, %xmm5, %xmm7 vpclmulqdq $17, %xmm13, %xmm6, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor (%rsp), %xmm7, %xmm8 addq $96, %rcx leaq -96(%r8), %rsi cmpq $96, %rsi jb .LBB1_19 vmovdqa %xmm6, (%rsp) vmovdqa %xmm5, %xmm6 vmovdqa %xmm3, %xmm5 vmovdqa %xmm2, %xmm3 .p2align 4, 0x90 .LBB1_18: vmovdqu (%rcx), %xmm12 vmovdqu 32(%rcx), %xmm13 vmovdqu 48(%rcx), %xmm11 vmovdqu 64(%rcx), %xmm14 vmovdqu 80(%rcx), %xmm15 vpslldq $8, %xmm10, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpsrldq $8, %xmm10, %xmm9 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm7, %xmm10 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $16, %xmm2, %xmm7, %xmm10 vpxor %xmm9, %xmm8, %xmm8 vpshufd $78, %xmm7, %xmm7 vpshufb %xmm0, %xmm12, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpshufb %xmm0, %xmm15, %xmm12 vpclmulqdq $0, %xmm12, %xmm1, %xmm15 vpxor %xmm7, %xmm8, %xmm7 vmovdqa %xmm1, %xmm2 vmovdqa %xmm0, %xmm1 vpclmulqdq $1, %xmm12, %xmm2, %xmm0 vpxor %xmm7, %xmm10, %xmm8 vpclmulqdq $16, %xmm12, %xmm2, %xmm7 vpshufb %xmm1, %xmm13, %xmm9 vpclmulqdq $17, %xmm12, %xmm2, %xmm10 vpshufb %xmm1, %xmm14, %xmm12 vpclmulqdq $0, %xmm12, %xmm3, %xmm13 vpxor %xmm0, %xmm7, %xmm0 vpclmulqdq $1, %xmm12, %xmm3, %xmm7 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $16, %xmm12, %xmm3, %xmm14 vpshufb %xmm1, %xmm11, %xmm11 vpclmulqdq $17, %xmm12, %xmm3, %xmm12 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $0, %xmm11, %xmm4, %xmm14 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $1, %xmm11, %xmm4, %xmm7 vpxor %xmm10, %xmm12, %xmm10 vpclmulqdq $16, %xmm11, %xmm4, %xmm12 vpxor %xmm7, %xmm12, %xmm7 vpclmulqdq $0, %xmm9, %xmm5, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $17, %xmm11, %xmm4, %xmm11 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $1, %xmm9, %xmm5, %xmm13 vpxor %xmm7, %xmm13, %xmm7 vpclmulqdq $17, %xmm9, %xmm5, %xmm13 vpxor %xmm7, %xmm0, %xmm0 vpxor %xmm13, %xmm11, %xmm7 vmovdqu 16(%rcx), %xmm11 vpshufb %xmm1, %xmm11, %xmm11 vpclmulqdq $16, %xmm9, %xmm5, %xmm9 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $0, %xmm11, %xmm6, %xmm10 vpxor %xmm10, %xmm12, %xmm10 vpclmulqdq $1, %xmm11, %xmm6, %xmm12 vpxor %xmm12, %xmm9, %xmm9 vpclmulqdq $16, %xmm11, %xmm6, %xmm12 vpxor %xmm12, %xmm9, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $17, %xmm11, %xmm6, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vmovdqa (%rsp), %xmm11 vpclmulqdq $0, %xmm8, %xmm11, %xmm9 vpxor %xmm9, %xmm10, %xmm9 vpclmulqdq $1, %xmm8, %xmm11, %xmm10 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $16, %xmm8, %xmm11, %xmm10 vpxor %xmm0, %xmm10, %xmm10 vpclmulqdq $17, %xmm8, %xmm11, %xmm0 vpxor %xmm0, %xmm7, %xmm8 vmovdqa %xmm1, %xmm0 vmovdqa %xmm2, %xmm1 addq $96, %rcx addq $-96, %rsi cmpq $95, %rsi ja .LBB1_18 .LBB1_19: vpslldq $8, %xmm10, %xmm0 vpxor %xmm0, %xmm9, %xmm0 vpbroadcastq .LCPI1_13(%rip), %xmm1 vpclmulqdq $16, %xmm1, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpsrldq $8, %xmm10, %xmm2 vpclmulqdq $16, %xmm1, %xmm0, %xmm1 vpxor %xmm2, %xmm8, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpxor %xmm1, %xmm0, %xmm15 cmpq $16, %rsi jae .LBB1_7 jmp .LBB1_12 .LBB1_20: testq %r15, %r15 jne .LBB1_25 jmp .LBB1_42 .LBB1_5: movq %r8, %rsi cmpq $16, %rsi jb .LBB1_12 .LBB1_7: vmovdqa 208(%rdi), %xmm0 leaq -16(%rsi), %rdx testb $16, %dl je .LBB1_8 cmpq $16, %rdx jae .LBB1_10 .LBB1_13: testq %rdx, %rdx je .LBB1_21 .LBB1_14: vmovdqa %xmm15, (%rsp) movq %r9, %r14 movq %r8, %rbx movq %rdi, %r12 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 16(%rsp) leaq 16(%rsp), %rdi movq %rcx, %rsi callq *memcpy@GOTPCREL(%rip) vmovdqa 16(%rsp), %xmm0 testq %r15, %r15 je .LBB1_15 movabsq $-68719476704, %rax leaq (%r15,%rax), %rcx incq %rax cmpq %rax, %rcx movl $0, %eax vmovdqa (%rsp), %xmm2 jb .LBB1_43 movq %r12, %rdi movq %rbx, %r8 movq %r14, %r9 vmovdqa 208(%r12), %xmm1 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI1_13(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm15 jmp .LBB1_25 .LBB1_8: vmovdqu (%rcx), %xmm1 vpshufb .LCPI1_2(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm15, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpbroadcastq .LCPI1_13(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 addq $16, %rcx vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpsrldq $8, %xmm3, %xmm3 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpxor %xmm3, %xmm1, %xmm1 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm15 movq %rdx, %rsi cmpq $16, %rdx jb .LBB1_13 .LBB1_10: vmovdqa .LCPI1_2(%rip), %xmm1 vpbroadcastq .LCPI1_13(%rip), %xmm2 .p2align 4, 0x90 .LBB1_11: vmovdqu (%rcx), %xmm3 vpshufb %xmm1, %xmm3, %xmm3 vpxor %xmm3, %xmm15, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm4 vpclmulqdq $1, %xmm3, %xmm0, %xmm5 vmovdqu 16(%rcx), %xmm6 vpclmulqdq $16, %xmm3, %xmm0, %xmm7 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm5, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpshufb %xmm1, %xmm6, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm4 addq $32, %rcx vpclmulqdq $1, %xmm3, %xmm0, %xmm5 addq $-32, %rsi vpclmulqdq $16, %xmm3, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm15 cmpq $15, %rsi ja .LBB1_11 .LBB1_12: movq %rsi, %rdx testq %rdx, %rdx jne .LBB1_14 .LBB1_21: testq %r15, %r15 je .LBB1_42 movabsq $-68719476704, %rcx leaq (%r15,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB1_43 .LBB1_25: vmovdqa 112(%rsp), %xmm0 vpshufb .LCPI1_0(%rip), %xmm0, %xmm1 movq 504(%rsp), %rdx vpaddd .LCPI1_1(%rip), %xmm1, %xmm0 cmpq $96, %r15 jb .LBB1_26 leaq 96(%r9), %rcx leaq 96(%rdx), %rax vmovdqa .LCPI1_2(%rip), %xmm11 vpshufb %xmm11, %xmm0, %xmm2 vpaddd .LCPI1_4(%rip), %xmm1, %xmm3 vpshufb %xmm11, %xmm3, %xmm3 vpaddd .LCPI1_5(%rip), %xmm1, %xmm4 vpshufb %xmm11, %xmm4, %xmm4 vpaddd .LCPI1_6(%rip), %xmm1, %xmm5 vpaddd .LCPI1_7(%rip), %xmm1, %xmm6 vpshufb %xmm11, %xmm5, %xmm5 vpshufb %xmm11, %xmm6, %xmm6 vpaddd .LCPI1_8(%rip), %xmm1, %xmm7 vpshufb %xmm11, %xmm7, %xmm7 vpaddd .LCPI1_9(%rip), %xmm1, %xmm0 vmovdqa %xmm0, 32(%rsp) vmovdqa (%rdi), %xmm9 vmovaps 16(%rdi), %xmm0 vmovdqa 32(%rdi), %xmm1 vmovaps 48(%rdi), %xmm10 vpxor %xmm2, %xmm9, %xmm2 vpxor %xmm3, %xmm9, %xmm3 vpxor %xmm4, %xmm9, %xmm4 vpxor %xmm5, %xmm9, %xmm5 vpxor %xmm6, %xmm9, %xmm6 vpxor %xmm7, %xmm9, %xmm8 vmovaps %xmm0, 304(%rsp) #APP vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm8, %xmm8 #NO_APP #APP vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm4, %xmm4 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm6, %xmm6 vaesenc %xmm1, %xmm8, %xmm8 #NO_APP vmovaps %xmm10, 288(%rsp) #APP vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm10, %xmm4, %xmm4 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm10, %xmm6, %xmm6 vaesenc %xmm10, %xmm8, %xmm8 #NO_APP vmovaps 64(%rdi), %xmm7 vmovaps %xmm7, 80(%rsp) #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 vaesenc %xmm7, %xmm6, %xmm6 vaesenc %xmm7, %xmm8, %xmm8 #NO_APP vmovaps 80(%rdi), %xmm7 vmovaps %xmm7, 400(%rsp) #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 vaesenc %xmm7, %xmm6, %xmm6 vaesenc %xmm7, %xmm8, %xmm8 #NO_APP vmovaps 96(%rdi), %xmm7 vmovaps %xmm7, 384(%rsp) #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 vaesenc %xmm7, %xmm6, %xmm6 vaesenc %xmm7, %xmm8, %xmm8 #NO_APP vmovaps 112(%rdi), %xmm7 vmovaps %xmm7, 368(%rsp) #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 vaesenc %xmm7, %xmm6, %xmm6 vaesenc %xmm7, %xmm8, %xmm8 #NO_APP vmovaps 128(%rdi), %xmm7 vmovaps %xmm7, 352(%rsp) #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 vaesenc %xmm7, %xmm6, %xmm6 vaesenc %xmm7, %xmm8, %xmm8 #NO_APP vmovaps 144(%rdi), %xmm7 vmovaps %xmm7, 336(%rsp) #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 vaesenc %xmm7, %xmm6, %xmm6 vaesenc %xmm7, %xmm8, %xmm8 #NO_APP vmovaps 160(%rdi), %xmm7 vmovaps %xmm7, 320(%rsp) #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 vaesenc %xmm7, %xmm6, %xmm6 vaesenc %xmm7, %xmm8, %xmm8 #NO_APP vmovdqa 176(%rdi), %xmm7 vmovdqa %xmm7, %xmm0 #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 vaesenc %xmm7, %xmm6, %xmm6 vaesenc %xmm7, %xmm8, %xmm8 #NO_APP vmovdqa 192(%rdi), %xmm7 vmovdqa %xmm7, %xmm14 #APP vaesenclast %xmm7, %xmm2, %xmm2 vaesenclast %xmm7, %xmm3, %xmm3 vaesenclast %xmm7, %xmm4, %xmm4 vaesenclast %xmm7, %xmm5, %xmm5 vaesenclast %xmm7, %xmm6, %xmm6 vaesenclast %xmm7, %xmm8, %xmm8 #NO_APP vpxor (%r9), %xmm2, %xmm13 vpxor 16(%r9), %xmm3, %xmm2 vpxor 32(%r9), %xmm4, %xmm7 vpxor 48(%r9), %xmm5, %xmm10 vpxor 64(%r9), %xmm6, %xmm3 vmovdqa %xmm2, %xmm6 vpxor 80(%r9), %xmm8, %xmm12 vmovdqa %xmm3, %xmm8 vmovdqu %xmm13, (%rdx) vmovdqu %xmm2, 16(%rdx) vmovdqu %xmm7, 32(%rdx) vmovdqu %xmm10, 48(%rdx) vmovdqu %xmm3, 64(%rdx) leaq -96(%r15), %rbx vmovdqu %xmm12, 80(%rdx) cmpq $96, %rbx jb .LBB1_35 vmovaps 208(%rdi), %xmm2 vmovaps %xmm2, 272(%rsp) vmovaps 224(%rdi), %xmm2 vmovaps %xmm2, 256(%rsp) vmovaps 240(%rdi), %xmm2 vmovaps %xmm2, 240(%rsp) vmovaps 256(%rdi), %xmm2 vmovaps %xmm2, 224(%rsp) vmovaps 272(%rdi), %xmm2 vmovaps %xmm2, 208(%rsp) vmovdqa 288(%rdi), %xmm2 vmovdqa %xmm2, 192(%rsp) vmovdqa %xmm1, 160(%rsp) vmovdqa 32(%rsp), %xmm1 vmovdqa %xmm9, 176(%rsp) vmovdqa %xmm0, 128(%rsp) vmovdqa %xmm14, 144(%rsp) .p2align 4, 0x90 .LBB1_33: vmovdqa %xmm7, 96(%rsp) vmovdqa %xmm8, 48(%rsp) vmovdqa %xmm6, 64(%rsp) vpshufb %xmm11, %xmm1, %xmm2 vpaddd .LCPI1_1(%rip), %xmm1, %xmm3 vpshufb %xmm11, %xmm3, %xmm3 vpaddd .LCPI1_4(%rip), %xmm1, %xmm4 vpshufb %xmm11, %xmm4, %xmm4 vpaddd .LCPI1_5(%rip), %xmm1, %xmm5 vpshufb %xmm11, %xmm5, %xmm6 vpaddd .LCPI1_6(%rip), %xmm1, %xmm5 vpshufb %xmm11, %xmm5, %xmm8 vpaddd .LCPI1_7(%rip), %xmm1, %xmm5 vmovdqa %xmm11, %xmm14 vpshufb %xmm11, %xmm5, %xmm11 vpshufb %xmm14, %xmm13, %xmm5 vpxor %xmm5, %xmm15, %xmm0 vmovdqa %xmm0, (%rsp) vpshufb %xmm14, %xmm12, %xmm0 vmovdqa 176(%rsp), %xmm5 vpxor %xmm2, %xmm5, %xmm13 vpxor %xmm3, %xmm5, %xmm15 vpxor %xmm4, %xmm5, %xmm2 vpxor %xmm6, %xmm5, %xmm3 vpxor %xmm5, %xmm8, %xmm4 vpxor %xmm5, %xmm11, %xmm12 vmovaps 304(%rsp), %xmm5 #APP vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm5, %xmm15, %xmm15 vaesenc %xmm5, %xmm2, %xmm2 vaesenc %xmm5, %xmm3, %xmm3 vaesenc %xmm5, %xmm4, %xmm4 vaesenc %xmm5, %xmm12, %xmm12 #NO_APP vpxor %xmm8, %xmm8, %xmm8 vpxor %xmm6, %xmm6, %xmm6 vpxor %xmm11, %xmm11, %xmm11 vmovaps 272(%rsp), %xmm7 vmovaps 160(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm12, %xmm12 vpclmulqdq $16, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm8, %xmm8 vpclmulqdq $0, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm11, %xmm11 vpclmulqdq $17, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $1, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm8, %xmm8 #NO_APP vmovdqa 48(%rsp), %xmm0 vpshufb %xmm14, %xmm0, %xmm0 vmovaps 256(%rsp), %xmm7 vmovaps 288(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm12, %xmm12 vpclmulqdq $16, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm8, %xmm8 vpclmulqdq $0, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm11, %xmm11 vpclmulqdq $17, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $1, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm8, %xmm8 #NO_APP vpshufb %xmm14, %xmm10, %xmm0 vmovaps 80(%rsp), %xmm5 #APP vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm5, %xmm15, %xmm15 vaesenc %xmm5, %xmm2, %xmm2 vaesenc %xmm5, %xmm3, %xmm3 vaesenc %xmm5, %xmm4, %xmm4 vaesenc %xmm5, %xmm12, %xmm12 #NO_APP vmovaps 240(%rsp), %xmm7 vmovaps 400(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm12, %xmm12 vpclmulqdq $16, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm8, %xmm8 vpclmulqdq $0, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm11, %xmm11 vpclmulqdq $17, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $1, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm8, %xmm8 #NO_APP vmovdqa 96(%rsp), %xmm0 vpshufb %xmm14, %xmm0, %xmm0 vmovaps 384(%rsp), %xmm5 #APP vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm5, %xmm15, %xmm15 vaesenc %xmm5, %xmm2, %xmm2 vaesenc %xmm5, %xmm3, %xmm3 vaesenc %xmm5, %xmm4, %xmm4 vaesenc %xmm5, %xmm12, %xmm12 #NO_APP vmovaps 224(%rsp), %xmm7 vmovaps 368(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm12, %xmm12 vpclmulqdq $16, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm8, %xmm8 vpclmulqdq $0, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm11, %xmm11 vpclmulqdq $17, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $1, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm8, %xmm8 #NO_APP vmovdqa 64(%rsp), %xmm0 vpshufb %xmm14, %xmm0, %xmm0 vmovaps 352(%rsp), %xmm5 #APP vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm5, %xmm15, %xmm15 vaesenc %xmm5, %xmm2, %xmm2 vaesenc %xmm5, %xmm3, %xmm3 vaesenc %xmm5, %xmm4, %xmm4 vaesenc %xmm5, %xmm12, %xmm12 #NO_APP vmovaps 208(%rsp), %xmm7 vmovaps 336(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm12, %xmm12 vpclmulqdq $16, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm8, %xmm8 vpclmulqdq $0, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm11, %xmm11 vpclmulqdq $17, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $1, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm8, %xmm8 #NO_APP vmovdqa 192(%rsp), %xmm5 vmovaps 320(%rsp), %xmm7 vmovdqa (%rsp), %xmm9 #APP vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm12, %xmm12 vpclmulqdq $16, %xmm5, %xmm9, %xmm0 vpxor %xmm0, %xmm8, %xmm8 vpclmulqdq $0, %xmm5, %xmm9, %xmm0 vpxor %xmm0, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm9, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpclmulqdq $1, %xmm5, %xmm9, %xmm0 vpxor %xmm0, %xmm8, %xmm8 #NO_APP vpxor %xmm5, %xmm5, %xmm5 vpunpcklqdq %xmm8, %xmm5, %xmm0 vpxor %xmm0, %xmm11, %xmm0 vmovdqa %xmm14, %xmm11 vpunpckhqdq %xmm5, %xmm8, %xmm5 vpbroadcastq .LCPI1_13(%rip), %xmm8 vpclmulqdq $16, %xmm8, %xmm0, %xmm7 vpxor %xmm5, %xmm6, %xmm5 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm7, %xmm0 vpshufd $78, %xmm0, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $16, %xmm8, %xmm0, %xmm0 vmovaps 128(%rsp), %xmm6 #APP vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm12, %xmm12 #NO_APP vmovaps 144(%rsp), %xmm6 #APP vaesenclast %xmm6, %xmm13, %xmm13 vaesenclast %xmm6, %xmm15, %xmm15 vaesenclast %xmm6, %xmm2, %xmm2 vaesenclast %xmm6, %xmm3, %xmm3 vaesenclast %xmm6, %xmm4, %xmm4 vaesenclast %xmm6, %xmm12, %xmm12 #NO_APP vpxor (%rcx), %xmm13, %xmm13 vpxor 16(%rcx), %xmm15, %xmm6 vpxor 32(%rcx), %xmm2, %xmm7 vpxor 48(%rcx), %xmm3, %xmm10 vpxor 64(%rcx), %xmm4, %xmm8 vpxor %xmm0, %xmm5, %xmm15 vpxor 80(%rcx), %xmm12, %xmm12 addq $96, %rcx vmovdqu %xmm13, (%rax) vmovdqu %xmm6, 16(%rax) vmovdqu %xmm7, 32(%rax) vmovdqu %xmm10, 48(%rax) vmovdqu %xmm8, 64(%rax) vmovdqu %xmm12, 80(%rax) addq $96, %rax addq $-96, %rbx vpaddd .LCPI1_8(%rip), %xmm1, %xmm1 cmpq $95, %rbx ja .LBB1_33 vmovdqa %xmm1, 32(%rsp) .LBB1_35: vpshufb %xmm11, %xmm13, %xmm1 vpxor %xmm1, %xmm15, %xmm1 vpshufb %xmm11, %xmm6, %xmm2 vpshufb %xmm11, %xmm7, %xmm3 vpshufb %xmm11, %xmm10, %xmm5 vpshufb %xmm11, %xmm12, %xmm4 vmovdqa 208(%rdi), %xmm6 vpclmulqdq $0, %xmm4, %xmm6, %xmm7 vpshufb %xmm11, %xmm8, %xmm8 vpclmulqdq $1, %xmm4, %xmm6, %xmm9 vmovdqa 224(%rdi), %xmm10 vpclmulqdq $16, %xmm4, %xmm6, %xmm11 vmovdqa 240(%rdi), %xmm12 vpclmulqdq $17, %xmm4, %xmm6, %xmm6 vmovdqa 256(%rdi), %xmm13 vpclmulqdq $0, %xmm8, %xmm10, %xmm14 vmovdqa 272(%rdi), %xmm0 vpclmulqdq $1, %xmm8, %xmm10, %xmm15 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $16, %xmm8, %xmm10, %xmm11 vpclmulqdq $17, %xmm8, %xmm10, %xmm8 vmovdqa 288(%rdi), %xmm4 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $0, %xmm5, %xmm12, %xmm10 vpxor %xmm11, %xmm15, %xmm11 vpclmulqdq $1, %xmm5, %xmm12, %xmm14 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $16, %xmm5, %xmm12, %xmm11 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm5, %xmm12, %xmm5 vpxor %xmm11, %xmm14, %xmm8 vpclmulqdq $0, %xmm3, %xmm13, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpclmulqdq $1, %xmm3, %xmm13, %xmm11 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $16, %xmm3, %xmm13, %xmm10 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm13, %xmm3 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $0, %xmm2, %xmm0, %xmm9 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $1, %xmm2, %xmm0, %xmm5 vpxor %xmm3, %xmm6, %xmm3 vpclmulqdq $16, %xmm2, %xmm0, %xmm6 vpxor %xmm7, %xmm9, %xmm7 vpxor %xmm5, %xmm10, %xmm5 vpxor %xmm6, %xmm5, %xmm5 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $17, %xmm2, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $0, %xmm1, %xmm4, %xmm2 vpxor %xmm2, %xmm7, %xmm2 vpclmulqdq $1, %xmm1, %xmm4, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $16, %xmm1, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $17, %xmm1, %xmm4, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI1_13(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm3, %xmm0, %xmm15 movq %rax, %rdx movq %rcx, %r9 vmovdqa %xmm15, %xmm1 cmpq $16, %rbx jae .LBB1_36 .LBB1_28: movq %rdx, %r14 movq %r9, %rsi vmovdqa 32(%rsp), %xmm4 jmp .LBB1_29 .LBB1_26: vmovdqa %xmm0, 32(%rsp) movq %r15, %rbx vmovdqa %xmm15, %xmm1 cmpq $16, %rbx jb .LBB1_28 .LBB1_36: vmovaps (%rdi), %xmm0 vmovaps %xmm0, (%rsp) vmovaps 16(%rdi), %xmm0 vmovaps %xmm0, 64(%rsp) vmovaps 32(%rdi), %xmm0 vmovaps %xmm0, 48(%rsp) vmovaps 48(%rdi), %xmm0 vmovaps %xmm0, 96(%rsp) vmovdqa 64(%rdi), %xmm0 vmovdqa %xmm0, 80(%rsp) vmovdqa 80(%rdi), %xmm5 vmovdqa 96(%rdi), %xmm6 vmovdqa 112(%rdi), %xmm7 vmovdqa 128(%rdi), %xmm8 vmovdqa 144(%rdi), %xmm9 vmovdqa 160(%rdi), %xmm10 vmovdqa 176(%rdi), %xmm11 vmovdqa 192(%rdi), %xmm12 vmovdqa 208(%rdi), %xmm13 vmovdqa .LCPI1_2(%rip), %xmm14 vpbroadcastq .LCPI1_13(%rip), %xmm15 vmovdqa 32(%rsp), %xmm4 .p2align 4, 0x90 .LBB1_37: vpshufb %xmm14, %xmm4, %xmm0 vpxor (%rsp), %xmm0, %xmm0 vaesenc 64(%rsp), %xmm0, %xmm0 vaesenc 48(%rsp), %xmm0, %xmm0 vaesenc 96(%rsp), %xmm0, %xmm0 vaesenc 80(%rsp), %xmm0, %xmm0 vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm11, %xmm0, %xmm0 vaesenclast %xmm12, %xmm0, %xmm0 vpxor (%r9), %xmm0, %xmm0 vmovdqu %xmm0, (%rdx) vpshufb %xmm14, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm0, %xmm13, %xmm1 vpclmulqdq $1, %xmm0, %xmm13, %xmm2 vpclmulqdq $16, %xmm0, %xmm13, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm13, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm15, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm15, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm1 leaq 16(%r9), %rsi leaq 16(%rdx), %r14 addq $-16, %rbx vpaddd .LCPI1_1(%rip), %xmm4, %xmm4 movq %r14, %rdx movq %rsi, %r9 cmpq $15, %rbx ja .LBB1_37 .LBB1_29: vmovdqa %xmm1, (%rsp) vmovdqa %xmm4, 32(%rsp) testq %rbx, %rbx je .LBB1_30 movq %r8, 64(%rsp) vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 16(%rsp) leaq 16(%rsp), %rax movq memcpy@GOTPCREL(%rip), %rbp movq %rdi, %r13 movq %rax, %rdi movq %rbx, %rdx callq *%rbp vmovdqa 32(%rsp), %xmm0 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor (%r13), %xmm0, %xmm0 vaesenc 16(%r13), %xmm0, %xmm0 vaesenc 32(%r13), %xmm0, %xmm0 vaesenc 48(%r13), %xmm0, %xmm0 vaesenc 64(%r13), %xmm0, %xmm0 vaesenc 80(%r13), %xmm0, %xmm0 vaesenc 96(%r13), %xmm0, %xmm0 vaesenc 112(%r13), %xmm0, %xmm0 vaesenc 128(%r13), %xmm0, %xmm0 vaesenc 144(%r13), %xmm0, %xmm0 vaesenc 160(%r13), %xmm0, %xmm0 vaesenc 176(%r13), %xmm0, %xmm0 movq %r13, %r12 vaesenclast 192(%r13), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 vmovdqa %xmm0, 48(%rsp) vmovdqa %xmm0, 16(%rsp) leaq 16(%rsp), %rsi movq %r14, %rdi movq %rbx, %rdx callq *%rbp testq %r15, %r15 je .LBB1_39 vmovaps 48(%rsp), %xmm0 vmovaps %xmm0, 416(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 16(%rsp) leaq 16(%rsp), %rdi leaq 416(%rsp), %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) vmovdqa 16(%rsp), %xmm0 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor (%rsp), %xmm0, %xmm0 movq %r12, %rdi vmovdqa 208(%r12), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 jmp .LBB1_41 .LBB1_30: vmovdqa (%rsp), %xmm15 jmp .LBB1_42 .LBB1_15: movq %r12, %rdi vmovdqa 208(%r12), %xmm1 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor (%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI1_13(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm15 movq %rbx, %r8 jmp .LBB1_42 .LBB1_39: movq %r12, %rdi vmovdqa 208(%r12), %xmm0 vmovdqa 48(%rsp), %xmm1 vpshufb .LCPI1_2(%rip), %xmm1, %xmm1 vpxor (%rsp), %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 .LBB1_41: vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI1_13(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm15 movq 64(%rsp), %r8 .LBB1_42: vmovdqa 208(%rdi), %xmm0 vmovq %r8, %xmm1 vmovq %r15, %xmm2 vpunpcklqdq %xmm1, %xmm2, %xmm1 vpsllq $3, %xmm1, %xmm1 vpxor %xmm1, %xmm15, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpxor %xmm3, %xmm4, %xmm1 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpbroadcastq .LCPI1_13(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm3, %xmm2, %xmm3 movq 520(%rsp), %rax vpxor %xmm0, %xmm3, %xmm0 vmovdqa 112(%rsp), %xmm3 vpxor (%rdi), %xmm3, %xmm3 vaesenc 16(%rdi), %xmm3, %xmm3 vaesenc 32(%rdi), %xmm3, %xmm3 vaesenc 48(%rdi), %xmm3, %xmm3 vaesenc 64(%rdi), %xmm3, %xmm3 vaesenc 80(%rdi), %xmm3, %xmm3 vaesenc 96(%rdi), %xmm3, %xmm3 vaesenc 112(%rdi), %xmm3, %xmm3 vaesenc 128(%rdi), %xmm3, %xmm3 vaesenc 144(%rdi), %xmm3, %xmm3 vaesenc 160(%rdi), %xmm3, %xmm3 vaesenc 176(%rdi), %xmm3, %xmm3 vaesenclast 192(%rdi), %xmm3, %xmm3 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpshufb .LCPI1_10(%rip), %xmm1, %xmm1 vpshufb .LCPI1_11(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vmovdqu %xmm0, (%rax) movl $1, %eax .LBB1_43: addq $440, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end1: .size haberdashery_aes192gcm_haswell_encrypt, .Lfunc_end1-haberdashery_aes192gcm_haswell_encrypt .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_1: .long 1 .long 0 .long 0 .long 0 .LCPI2_2: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_3: .zero 8 .quad -4467570830351532032 .LCPI2_4: .long 2 .long 0 .long 0 .long 0 .LCPI2_5: .long 3 .long 0 .long 0 .long 0 .LCPI2_6: .long 4 .long 0 .long 0 .long 0 .LCPI2_7: .long 5 .long 0 .long 0 .long 0 .LCPI2_8: .long 6 .long 0 .long 0 .long 0 .LCPI2_9: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI2_10: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI2_11: .quad -4467570830351532032 .section .text.haberdashery_aes192gcm_haswell_decrypt,"ax",@progbits .globl haberdashery_aes192gcm_haswell_decrypt .p2align 4, 0x90 .type haberdashery_aes192gcm_haswell_decrypt,@function haberdashery_aes192gcm_haswell_decrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $456, %rsp .cfi_def_cfa_offset 512 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 512(%rsp), %r15 xorl %eax, %eax cmpq 544(%rsp), %r15 jne .LBB2_39 cmpq $16, 528(%rsp) setne %r10b movabsq $2305843009213693950, %r11 cmpq %r11, %r8 seta %r11b movq %r15, %rbx shrq $5, %rbx cmpq $2147483647, %rbx setae %bl orb %r10b, %r11b orb %bl, %r11b cmpq $12, %rdx setne %dl orb %r11b, %dl jne .LBB2_39 movq 520(%rsp), %r12 vmovd (%rsi), %xmm0 vpinsrd $1, 4(%rsi), %xmm0, %xmm0 vpinsrd $2, 8(%rsi), %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm0 vmovdqa %xmm0, 112(%rsp) vpxor %xmm11, %xmm11, %xmm11 testq %r8, %r8 je .LBB2_3 cmpq $96, %r8 jb .LBB2_6 vmovdqu (%rcx), %xmm1 vmovdqu 16(%rcx), %xmm2 vmovdqu 32(%rcx), %xmm3 vmovdqu 48(%rcx), %xmm4 vmovdqu 64(%rcx), %xmm5 vmovdqu 80(%rcx), %xmm9 vmovdqa .LCPI2_2(%rip), %xmm0 vpshufb %xmm0, %xmm1, %xmm13 vpshufb %xmm0, %xmm2, %xmm8 vpshufb %xmm0, %xmm3, %xmm6 vpshufb %xmm0, %xmm9, %xmm3 vmovdqa 208(%rdi), %xmm1 vpclmulqdq $0, %xmm3, %xmm1, %xmm9 vpshufb %xmm0, %xmm4, %xmm10 vpclmulqdq $1, %xmm3, %xmm1, %xmm11 vpshufb %xmm0, %xmm5, %xmm5 vpclmulqdq $16, %xmm3, %xmm1, %xmm12 vmovdqa 224(%rdi), %xmm2 vpclmulqdq $17, %xmm3, %xmm1, %xmm7 vmovdqa 240(%rdi), %xmm4 vpclmulqdq $0, %xmm5, %xmm2, %xmm14 vmovdqa 256(%rdi), %xmm3 vpclmulqdq $1, %xmm5, %xmm2, %xmm15 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $16, %xmm5, %xmm2, %xmm12 vpxor %xmm9, %xmm14, %xmm9 vpclmulqdq $17, %xmm5, %xmm2, %xmm5 vpxor %xmm12, %xmm15, %xmm12 vpclmulqdq $0, %xmm10, %xmm4, %xmm14 vpxor %xmm12, %xmm11, %xmm11 vpclmulqdq $1, %xmm10, %xmm4, %xmm12 vpxor %xmm7, %xmm5, %xmm7 vpclmulqdq $16, %xmm10, %xmm4, %xmm15 vmovdqa 272(%rdi), %xmm5 vpclmulqdq $17, %xmm10, %xmm4, %xmm10 vpxor %xmm15, %xmm12, %xmm12 vpclmulqdq $0, %xmm6, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $1, %xmm6, %xmm3, %xmm15 vpxor %xmm14, %xmm9, %xmm9 vpclmulqdq $16, %xmm6, %xmm3, %xmm14 vpxor %xmm15, %xmm12, %xmm12 vpclmulqdq $17, %xmm6, %xmm3, %xmm6 vpxor %xmm12, %xmm11, %xmm11 vpclmulqdq $0, %xmm8, %xmm5, %xmm12 vpxor %xmm6, %xmm10, %xmm6 vpclmulqdq $1, %xmm8, %xmm5, %xmm10 vpxor %xmm6, %xmm7, %xmm6 vmovdqa %xmm6, (%rsp) vpclmulqdq $16, %xmm8, %xmm5, %xmm15 vmovdqa 288(%rdi), %xmm6 vpclmulqdq $0, %xmm13, %xmm6, %xmm7 vpxor %xmm10, %xmm14, %xmm10 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm7, %xmm12, %xmm7 vpxor %xmm7, %xmm9, %xmm9 vpclmulqdq $1, %xmm13, %xmm6, %xmm7 vpxor %xmm7, %xmm10, %xmm7 vpxor %xmm7, %xmm11, %xmm7 vpclmulqdq $16, %xmm13, %xmm6, %xmm10 vpxor %xmm7, %xmm10, %xmm10 vpclmulqdq $17, %xmm8, %xmm5, %xmm7 vpclmulqdq $17, %xmm13, %xmm6, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor (%rsp), %xmm7, %xmm8 addq $96, %rcx leaq -96(%r8), %rsi cmpq $96, %rsi jb .LBB2_16 vmovdqa %xmm6, (%rsp) vmovdqa %xmm5, %xmm6 vmovdqa %xmm3, %xmm5 vmovdqa %xmm2, %xmm3 .p2align 4, 0x90 .LBB2_15: vmovdqu (%rcx), %xmm12 vmovdqu 32(%rcx), %xmm13 vmovdqu 48(%rcx), %xmm11 vmovdqu 64(%rcx), %xmm14 vmovdqu 80(%rcx), %xmm15 vpslldq $8, %xmm10, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpsrldq $8, %xmm10, %xmm9 vpbroadcastq .LCPI2_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm7, %xmm10 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $16, %xmm2, %xmm7, %xmm10 vpxor %xmm9, %xmm8, %xmm8 vpshufd $78, %xmm7, %xmm7 vpshufb %xmm0, %xmm12, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpshufb %xmm0, %xmm15, %xmm12 vpclmulqdq $0, %xmm12, %xmm1, %xmm15 vpxor %xmm7, %xmm8, %xmm7 vmovdqa %xmm1, %xmm2 vmovdqa %xmm0, %xmm1 vpclmulqdq $1, %xmm12, %xmm2, %xmm0 vpxor %xmm7, %xmm10, %xmm8 vpclmulqdq $16, %xmm12, %xmm2, %xmm7 vpshufb %xmm1, %xmm13, %xmm9 vpclmulqdq $17, %xmm12, %xmm2, %xmm10 vpshufb %xmm1, %xmm14, %xmm12 vpclmulqdq $0, %xmm12, %xmm3, %xmm13 vpxor %xmm0, %xmm7, %xmm0 vpclmulqdq $1, %xmm12, %xmm3, %xmm7 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $16, %xmm12, %xmm3, %xmm14 vpshufb %xmm1, %xmm11, %xmm11 vpclmulqdq $17, %xmm12, %xmm3, %xmm12 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $0, %xmm11, %xmm4, %xmm14 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $1, %xmm11, %xmm4, %xmm7 vpxor %xmm10, %xmm12, %xmm10 vpclmulqdq $16, %xmm11, %xmm4, %xmm12 vpxor %xmm7, %xmm12, %xmm7 vpclmulqdq $0, %xmm9, %xmm5, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $17, %xmm11, %xmm4, %xmm11 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $1, %xmm9, %xmm5, %xmm13 vpxor %xmm7, %xmm13, %xmm7 vpclmulqdq $17, %xmm9, %xmm5, %xmm13 vpxor %xmm7, %xmm0, %xmm0 vpxor %xmm13, %xmm11, %xmm7 vmovdqu 16(%rcx), %xmm11 vpshufb %xmm1, %xmm11, %xmm11 vpclmulqdq $16, %xmm9, %xmm5, %xmm9 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $0, %xmm11, %xmm6, %xmm10 vpxor %xmm10, %xmm12, %xmm10 vpclmulqdq $1, %xmm11, %xmm6, %xmm12 vpxor %xmm12, %xmm9, %xmm9 vpclmulqdq $16, %xmm11, %xmm6, %xmm12 vpxor %xmm12, %xmm9, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $17, %xmm11, %xmm6, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vmovdqa (%rsp), %xmm11 vpclmulqdq $0, %xmm8, %xmm11, %xmm9 vpxor %xmm9, %xmm10, %xmm9 vpclmulqdq $1, %xmm8, %xmm11, %xmm10 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $16, %xmm8, %xmm11, %xmm10 vpxor %xmm0, %xmm10, %xmm10 vpclmulqdq $17, %xmm8, %xmm11, %xmm0 vpxor %xmm0, %xmm7, %xmm8 vmovdqa %xmm1, %xmm0 vmovdqa %xmm2, %xmm1 addq $96, %rcx addq $-96, %rsi cmpq $95, %rsi ja .LBB2_15 .LBB2_16: vpslldq $8, %xmm10, %xmm0 vpxor %xmm0, %xmm9, %xmm0 vpbroadcastq .LCPI2_11(%rip), %xmm1 vpclmulqdq $16, %xmm1, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpsrldq $8, %xmm10, %xmm2 vpclmulqdq $16, %xmm1, %xmm0, %xmm1 vpxor %xmm2, %xmm8, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpxor %xmm1, %xmm0, %xmm11 cmpq $16, %rsi jae .LBB2_17 jmp .LBB2_8 .LBB2_6: movq %r8, %rsi cmpq $16, %rsi jb .LBB2_8 .LBB2_17: vmovdqa 208(%rdi), %xmm0 leaq -16(%rsi), %rdx testb $16, %dl je .LBB2_18 cmpq $16, %rdx jae .LBB2_20 .LBB2_9: testq %rdx, %rdx je .LBB2_3 .LBB2_10: vmovdqa %xmm11, 16(%rsp) movq %r9, %r14 movq %r8, %rbx movq %rdi, %r13 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) leaq 32(%rsp), %rdi movq %rcx, %rsi callq *memcpy@GOTPCREL(%rip) vmovdqa 32(%rsp), %xmm0 testq %r15, %r15 je .LBB2_11 movabsq $-68719476704, %rax leaq (%r15,%rax), %rcx incq %rax cmpq %rax, %rcx movl $0, %eax vmovdqa 16(%rsp), %xmm2 jb .LBB2_39 movq %r13, %rdi movq %rbx, %r8 movq %r14, %r9 vmovdqa 208(%r13), %xmm1 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI2_11(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm11 jmp .LBB2_24 .LBB2_18: vmovdqu (%rcx), %xmm1 vpshufb .LCPI2_2(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm11, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpbroadcastq .LCPI2_11(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 addq $16, %rcx vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpsrldq $8, %xmm3, %xmm3 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpxor %xmm3, %xmm1, %xmm1 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm11 movq %rdx, %rsi cmpq $16, %rdx jb .LBB2_9 .LBB2_20: vmovdqa .LCPI2_2(%rip), %xmm1 vpbroadcastq .LCPI2_11(%rip), %xmm2 .p2align 4, 0x90 .LBB2_21: vmovdqu (%rcx), %xmm3 vpshufb %xmm1, %xmm3, %xmm3 vpxor %xmm3, %xmm11, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm4 vpclmulqdq $1, %xmm3, %xmm0, %xmm5 vmovdqu 16(%rcx), %xmm6 vpclmulqdq $16, %xmm3, %xmm0, %xmm7 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm5, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpshufb %xmm1, %xmm6, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm4 addq $32, %rcx vpclmulqdq $1, %xmm3, %xmm0, %xmm5 addq $-32, %rsi vpclmulqdq $16, %xmm3, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm11 cmpq $15, %rsi ja .LBB2_21 .LBB2_8: movq %rsi, %rdx testq %rdx, %rdx jne .LBB2_10 .LBB2_3: testq %r15, %r15 je .LBB2_12 movabsq $-68719476704, %rcx leaq (%r15,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB2_39 .LBB2_24: vmovdqa 112(%rsp), %xmm0 vpshufb .LCPI2_0(%rip), %xmm0, %xmm0 movq 536(%rsp), %rax vpaddd .LCPI2_1(%rip), %xmm0, %xmm6 cmpq $96, %r15 jb .LBB2_25 vmovaps (%rdi), %xmm0 vmovaps %xmm0, 144(%rsp) vmovaps 16(%rdi), %xmm0 vmovaps %xmm0, 416(%rsp) vmovaps 32(%rdi), %xmm0 vmovaps %xmm0, 400(%rsp) vmovaps 48(%rdi), %xmm0 vmovaps %xmm0, 384(%rsp) vmovaps 64(%rdi), %xmm0 vmovaps %xmm0, 368(%rsp) vmovaps 80(%rdi), %xmm0 vmovaps %xmm0, 352(%rsp) vmovaps 96(%rdi), %xmm0 vmovaps %xmm0, 336(%rsp) vmovaps 112(%rdi), %xmm0 vmovaps %xmm0, 320(%rsp) vmovaps 128(%rdi), %xmm0 vmovaps %xmm0, 304(%rsp) vmovaps 144(%rdi), %xmm0 vmovaps %xmm0, 288(%rsp) vmovaps 160(%rdi), %xmm0 vmovaps %xmm0, 272(%rsp) vmovaps 176(%rdi), %xmm0 vmovaps %xmm0, 256(%rsp) vmovaps 192(%rdi), %xmm0 vmovaps %xmm0, 240(%rsp) vmovaps 208(%rdi), %xmm0 vmovaps %xmm0, 224(%rsp) vmovaps 224(%rdi), %xmm0 vmovaps %xmm0, 208(%rsp) vmovaps 240(%rdi), %xmm0 vmovaps %xmm0, 192(%rsp) movq %r15, %rbx vmovaps 256(%rdi), %xmm0 vmovaps %xmm0, 176(%rsp) vmovaps 272(%rdi), %xmm0 vmovaps %xmm0, 160(%rsp) vmovdqa 288(%rdi), %xmm0 vmovdqa %xmm0, 128(%rsp) .p2align 4, 0x90 .LBB2_29: vmovdqa %xmm6, (%rsp) vmovdqu (%r9), %xmm10 vmovdqa %xmm10, 80(%rsp) vmovups 32(%r9), %xmm0 vmovaps %xmm0, 16(%rsp) vmovdqu 48(%r9), %xmm8 vmovdqu 64(%r9), %xmm7 vmovdqa %xmm7, 64(%rsp) vmovdqu 80(%r9), %xmm9 vmovdqa %xmm9, 96(%rsp) vmovdqa .LCPI2_2(%rip), %xmm4 vpshufb %xmm4, %xmm6, %xmm0 vpaddd .LCPI2_1(%rip), %xmm6, %xmm1 vpshufb %xmm4, %xmm1, %xmm1 vpaddd .LCPI2_4(%rip), %xmm6, %xmm2 vpshufb %xmm4, %xmm2, %xmm2 vpaddd .LCPI2_5(%rip), %xmm6, %xmm3 vpshufb %xmm4, %xmm3, %xmm3 vmovdqa (%rsp), %xmm5 vpaddd .LCPI2_6(%rip), %xmm5, %xmm5 vpshufb %xmm4, %xmm5, %xmm5 vmovdqa (%rsp), %xmm6 vpaddd .LCPI2_7(%rip), %xmm6, %xmm6 vpshufb %xmm4, %xmm6, %xmm6 vpshufb %xmm4, %xmm10, %xmm12 vpxor %xmm12, %xmm11, %xmm10 vmovdqa %xmm10, 48(%rsp) vpshufb %xmm4, %xmm9, %xmm10 vmovdqa 144(%rsp), %xmm9 vpxor %xmm0, %xmm9, %xmm13 vpxor %xmm1, %xmm9, %xmm14 vpxor %xmm2, %xmm9, %xmm15 vpxor %xmm3, %xmm9, %xmm1 vpxor %xmm5, %xmm9, %xmm2 vpxor %xmm6, %xmm9, %xmm12 vmovaps 416(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm12, %xmm12 #NO_APP vpxor %xmm5, %xmm5, %xmm5 vpxor %xmm6, %xmm6, %xmm6 vxorps %xmm0, %xmm0, %xmm0 vmovaps 400(%rsp), %xmm9 vmovaps 224(%rsp), %xmm11 #APP vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm12, %xmm12 vpclmulqdq $16, %xmm11, %xmm10, %xmm3 vpxor %xmm3, %xmm5, %xmm5 vpclmulqdq $0, %xmm11, %xmm10, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpclmulqdq $17, %xmm11, %xmm10, %xmm3 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $1, %xmm11, %xmm10, %xmm3 vpxor %xmm3, %xmm5, %xmm5 #NO_APP vpshufb %xmm4, %xmm7, %xmm3 vmovaps 384(%rsp), %xmm9 vmovaps 208(%rsp), %xmm11 #APP vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm12, %xmm12 vpclmulqdq $16, %xmm11, %xmm3, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $0, %xmm11, %xmm3, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $17, %xmm11, %xmm3, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $1, %xmm11, %xmm3, %xmm7 vpxor %xmm7, %xmm5, %xmm5 #NO_APP vpshufb %xmm4, %xmm8, %xmm3 vmovaps 368(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm12, %xmm12 #NO_APP vmovaps 352(%rsp), %xmm9 vmovaps 192(%rsp), %xmm11 #APP vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm12, %xmm12 vpclmulqdq $16, %xmm11, %xmm3, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $0, %xmm11, %xmm3, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $17, %xmm11, %xmm3, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $1, %xmm11, %xmm3, %xmm7 vpxor %xmm7, %xmm5, %xmm5 #NO_APP vmovdqa 16(%rsp), %xmm3 vpshufb %xmm4, %xmm3, %xmm3 vmovaps 336(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm12, %xmm12 #NO_APP vmovaps 320(%rsp), %xmm9 vmovaps 176(%rsp), %xmm11 #APP vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm12, %xmm12 vpclmulqdq $16, %xmm11, %xmm3, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $0, %xmm11, %xmm3, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $17, %xmm11, %xmm3, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $1, %xmm11, %xmm3, %xmm7 vpxor %xmm7, %xmm5, %xmm5 #NO_APP vmovdqu 16(%r9), %xmm3 vmovaps 304(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm12, %xmm12 #NO_APP vpshufb %xmm4, %xmm3, %xmm7 vmovaps 288(%rsp), %xmm11 vmovaps 160(%rsp), %xmm10 #APP vaesenc %xmm11, %xmm13, %xmm13 vaesenc %xmm11, %xmm14, %xmm14 vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm12, %xmm12 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $0, %xmm10, %xmm7, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $17, %xmm10, %xmm7, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $1, %xmm10, %xmm7, %xmm9 vpxor %xmm5, %xmm9, %xmm5 #NO_APP vmovdqa 272(%rsp), %xmm9 vmovdqa 128(%rsp), %xmm10 vmovdqa 48(%rsp), %xmm4 #APP vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm12, %xmm12 vpclmulqdq $16, %xmm10, %xmm4, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $0, %xmm10, %xmm4, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $17, %xmm10, %xmm4, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $1, %xmm10, %xmm4, %xmm7 vpxor %xmm7, %xmm5, %xmm5 #NO_APP vpxor %xmm9, %xmm9, %xmm9 vpunpcklqdq %xmm5, %xmm9, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpunpckhqdq %xmm9, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpbroadcastq .LCPI2_11(%rip), %xmm7 vpclmulqdq $16, %xmm7, %xmm0, %xmm6 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm6, %xmm0 vpclmulqdq $16, %xmm7, %xmm0, %xmm6 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpxor %xmm6, %xmm0, %xmm11 vmovaps 256(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm12, %xmm12 #NO_APP vmovaps 240(%rsp), %xmm0 #APP vaesenclast %xmm0, %xmm13, %xmm13 vaesenclast %xmm0, %xmm14, %xmm14 vaesenclast %xmm0, %xmm15, %xmm15 vaesenclast %xmm0, %xmm1, %xmm1 vaesenclast %xmm0, %xmm2, %xmm2 vaesenclast %xmm0, %xmm12, %xmm12 #NO_APP vpxor 80(%rsp), %xmm13, %xmm0 vpxor %xmm3, %xmm14, %xmm3 vpxor 16(%rsp), %xmm15, %xmm5 vpxor %xmm1, %xmm8, %xmm1 vpxor 64(%rsp), %xmm2, %xmm2 vmovdqu %xmm0, (%rax) vmovdqu %xmm3, 16(%rax) vmovdqu %xmm5, 32(%rax) vmovdqa (%rsp), %xmm6 vmovdqu %xmm1, 48(%rax) vmovdqu %xmm2, 64(%rax) vpxor 96(%rsp), %xmm12, %xmm0 vmovdqu %xmm0, 80(%rax) addq $96, %r9 addq $96, %rax addq $-96, %rbx vpaddd .LCPI2_8(%rip), %xmm6, %xmm6 cmpq $95, %rbx ja .LBB2_29 vmovdqa %xmm11, %xmm3 cmpq $16, %rbx jb .LBB2_27 .LBB2_30: vmovdqa 208(%rdi), %xmm0 vmovaps (%rdi), %xmm1 vmovaps %xmm1, (%rsp) vmovaps 16(%rdi), %xmm1 vmovaps %xmm1, 16(%rsp) vmovaps 32(%rdi), %xmm1 vmovaps %xmm1, 96(%rsp) vmovaps 48(%rdi), %xmm1 vmovaps %xmm1, 80(%rsp) vmovaps 64(%rdi), %xmm1 vmovaps %xmm1, 64(%rsp) vmovdqa 80(%rdi), %xmm1 vmovdqa %xmm1, 48(%rsp) vmovdqa 96(%rdi), %xmm7 vmovdqa 112(%rdi), %xmm8 vmovdqa 128(%rdi), %xmm9 vmovdqa 144(%rdi), %xmm10 vmovdqa 160(%rdi), %xmm11 vmovdqa 176(%rdi), %xmm12 movq %rdi, %r13 vmovdqa 192(%rdi), %xmm13 vmovdqa .LCPI2_2(%rip), %xmm14 vpbroadcastq .LCPI2_11(%rip), %xmm15 .p2align 4, 0x90 .LBB2_31: vmovdqu (%r9), %xmm1 vpshufb %xmm14, %xmm1, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpclmulqdq $1, %xmm2, %xmm0, %xmm4 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm15, %xmm3, %xmm5 vpsrldq $8, %xmm4, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $16, %xmm15, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm3 vpshufb %xmm14, %xmm6, %xmm2 vpxor (%rsp), %xmm2, %xmm2 vaesenc 16(%rsp), %xmm2, %xmm2 vaesenc 96(%rsp), %xmm2, %xmm2 vaesenc 80(%rsp), %xmm2, %xmm2 vaesenc 64(%rsp), %xmm2, %xmm2 vaesenc 48(%rsp), %xmm2, %xmm2 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm12, %xmm2, %xmm2 vaesenclast %xmm13, %xmm2, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vmovdqu %xmm1, (%rax) leaq 16(%rax), %r14 addq $-16, %rbx addq $16, %r9 vpaddd .LCPI2_1(%rip), %xmm6, %xmm6 movq %r14, %rax cmpq $15, %rbx ja .LBB2_31 jmp .LBB2_32 .LBB2_25: movq %r15, %rbx vmovdqa %xmm11, %xmm3 cmpq $16, %rbx jae .LBB2_30 .LBB2_27: movq %rdi, %r13 movq %rax, %r14 .LBB2_32: vmovdqa %xmm3, 16(%rsp) movq %r8, %rbp vpxor %xmm1, %xmm1, %xmm1 vpxor %xmm2, %xmm2, %xmm2 testq %rbx, %rbx je .LBB2_34 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) leaq 32(%rsp), %rdi movq memcpy@GOTPCREL(%rip), %r12 movq %r9, %rsi movq %rbx, %rdx vmovdqa %xmm6, (%rsp) callq *%r12 vmovdqa (%rsp), %xmm0 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor (%r13), %xmm0, %xmm0 vaesenc 16(%r13), %xmm0, %xmm0 vaesenc 32(%r13), %xmm0, %xmm0 vaesenc 48(%r13), %xmm0, %xmm0 vaesenc 64(%r13), %xmm0, %xmm0 vaesenc 80(%r13), %xmm0, %xmm0 vaesenc 96(%r13), %xmm0, %xmm0 vaesenc 112(%r13), %xmm0, %xmm0 vaesenc 128(%r13), %xmm0, %xmm0 vaesenc 144(%r13), %xmm0, %xmm0 vaesenc 160(%r13), %xmm0, %xmm0 vaesenc 176(%r13), %xmm0, %xmm0 vaesenclast 192(%r13), %xmm0, %xmm0 vmovdqa 32(%rsp), %xmm1 vmovdqa %xmm1, (%rsp) vpxor %xmm1, %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) leaq 32(%rsp), %rsi movq %r14, %rdi movq %rbx, %rdx callq *%r12 vmovdqa (%rsp), %xmm2 vpxor %xmm1, %xmm1, %xmm1 movq 520(%rsp), %r12 .LBB2_34: vmovdqu (%r12), %xmm0 vmovdqa %xmm0, (%rsp) vmovdqa %xmm2, 432(%rsp) vmovdqa %xmm1, 32(%rsp) leaq 32(%rsp), %rdi leaq 432(%rsp), %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) testq %rbx, %rbx je .LBB2_35 vmovdqa 32(%rsp), %xmm0 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 movq %r13, %rdi vmovdqa 208(%r13), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI2_11(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm11 movq %rbp, %r8 jmp .LBB2_37 .LBB2_11: movq %r13, %rdi vmovdqa 208(%r13), %xmm1 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI2_11(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm11 movq %rbx, %r8 .LBB2_12: vmovdqu (%r12), %xmm5 jmp .LBB2_38 .LBB2_35: movq %r13, %rdi movq %rbp, %r8 vmovdqa 16(%rsp), %xmm11 .LBB2_37: vmovdqa (%rsp), %xmm5 .LBB2_38: vmovdqa 208(%rdi), %xmm0 vmovq %r8, %xmm1 vmovq %r15, %xmm2 vpunpcklqdq %xmm1, %xmm2, %xmm1 vpsllq $3, %xmm1, %xmm1 vpxor %xmm1, %xmm11, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpxor %xmm3, %xmm4, %xmm1 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpbroadcastq .LCPI2_11(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm3, %xmm2, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vmovdqa 112(%rsp), %xmm3 vpxor (%rdi), %xmm3, %xmm3 vaesenc 16(%rdi), %xmm3, %xmm3 vaesenc 32(%rdi), %xmm3, %xmm3 vaesenc 48(%rdi), %xmm3, %xmm3 vaesenc 64(%rdi), %xmm3, %xmm3 vaesenc 80(%rdi), %xmm3, %xmm3 vaesenc 96(%rdi), %xmm3, %xmm3 vaesenc 112(%rdi), %xmm3, %xmm3 vaesenc 128(%rdi), %xmm3, %xmm3 vaesenc 144(%rdi), %xmm3, %xmm3 vaesenc 160(%rdi), %xmm3, %xmm3 vaesenc 176(%rdi), %xmm3, %xmm3 vaesenclast 192(%rdi), %xmm3, %xmm3 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpshufb .LCPI2_9(%rip), %xmm1, %xmm1 vpshufb .LCPI2_10(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm3, %xmm0, %xmm0 xorl %eax, %eax vptest %xmm0, %xmm0 sete %al .LBB2_39: addq $456, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end2: .size haberdashery_aes192gcm_haswell_decrypt, .Lfunc_end2-haberdashery_aes192gcm_haswell_decrypt .cfi_endproc .section .text.haberdashery_aes192gcm_haswell_is_supported,"ax",@progbits .globl haberdashery_aes192gcm_haswell_is_supported .p2align 4, 0x90 .type haberdashery_aes192gcm_haswell_is_supported,@function haberdashery_aes192gcm_haswell_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $297, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end3: .size haberdashery_aes192gcm_haswell_is_supported, .Lfunc_end3-haberdashery_aes192gcm_haswell_is_supported .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
65,030
asm/aes128gcm_streaming_skylake.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI0_1: .zero 8 .quad -4467570830351532032 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_2: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_streaming_skylake_init_key,"ax",@progbits .globl haberdashery_aes128gcm_streaming_skylake_init_key .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_skylake_init_key,@function haberdashery_aes128gcm_streaming_skylake_init_key: .cfi_startproc cmpq $16, %rdx jne .LBB0_2 vmovdqu (%rsi), %xmm3 vpslldq $4, %xmm3, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vaeskeygenassist $1, %xmm3, %xmm1 vpslldq $12, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpshufd $255, %xmm1, %xmm1 vpxor %xmm3, %xmm0, %xmm0 vmovdqa %xmm3, %xmm10 vmovdqa %xmm3, -56(%rsp) vpxor %xmm0, %xmm1, %xmm1 vpslldq $4, %xmm1, %xmm0 vpslldq $8, %xmm1, %xmm2 vaeskeygenassist $2, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpslldq $12, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpshufd $255, %xmm3, %xmm2 vpxor %xmm1, %xmm0, %xmm0 vmovdqa %xmm1, -24(%rsp) vpxor %xmm0, %xmm2, %xmm2 vpslldq $4, %xmm2, %xmm0 vaeskeygenassist $4, %xmm2, %xmm3 vpslldq $8, %xmm2, %xmm4 vpxor %xmm4, %xmm0, %xmm0 vpslldq $12, %xmm2, %xmm4 vpxor %xmm4, %xmm0, %xmm0 vpshufd $255, %xmm3, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm3 vaeskeygenassist $8, %xmm3, %xmm0 vpslldq $4, %xmm3, %xmm4 vpslldq $8, %xmm3, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm3, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpshufd $255, %xmm0, %xmm0 vpxor %xmm3, %xmm4, %xmm4 vpxor %xmm4, %xmm0, %xmm4 vpslldq $4, %xmm4, %xmm0 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpslldq $12, %xmm4, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vaeskeygenassist $16, %xmm4, %xmm5 vpshufd $255, %xmm5, %xmm5 vpxor %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm5 vpslldq $4, %xmm5, %xmm0 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpslldq $12, %xmm5, %xmm6 vaeskeygenassist $32, %xmm5, %xmm7 vpxor %xmm6, %xmm0, %xmm0 vpshufd $255, %xmm7, %xmm6 vpxor %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpslldq $4, %xmm6, %xmm0 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vaeskeygenassist $64, %xmm6, %xmm7 vpslldq $12, %xmm6, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vpshufd $255, %xmm7, %xmm7 vpxor %xmm6, %xmm0, %xmm0 vpxor %xmm0, %xmm7, %xmm7 vpslldq $4, %xmm7, %xmm0 vpslldq $8, %xmm7, %xmm8 vaeskeygenassist $128, %xmm7, %xmm9 vpxor %xmm0, %xmm8, %xmm0 vpslldq $12, %xmm7, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vpshufd $255, %xmm9, %xmm8 vpxor %xmm7, %xmm0, %xmm0 vpxor %xmm0, %xmm8, %xmm8 vpslldq $4, %xmm8, %xmm0 vaeskeygenassist $27, %xmm8, %xmm9 vpslldq $8, %xmm8, %xmm11 vpxor %xmm0, %xmm11, %xmm0 vpslldq $12, %xmm8, %xmm11 vpxor %xmm0, %xmm11, %xmm0 vpshufd $255, %xmm9, %xmm9 vpxor %xmm0, %xmm8, %xmm0 vpxor %xmm0, %xmm9, %xmm9 vaeskeygenassist $54, %xmm9, %xmm0 vpslldq $4, %xmm9, %xmm11 vpslldq $8, %xmm9, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpslldq $12, %xmm9, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpshufd $255, %xmm0, %xmm0 vpxor %xmm9, %xmm11, %xmm11 vpxor %xmm0, %xmm11, %xmm11 vmovdqa %xmm11, -40(%rsp) vaesenc %xmm1, %xmm10, %xmm0 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenclast %xmm11, %xmm0, %xmm0 vpshufb .LCPI0_0(%rip), %xmm0, %xmm0 vpsrlq $63, %xmm0, %xmm11 vpaddq %xmm0, %xmm0, %xmm0 vpshufd $78, %xmm11, %xmm12 vpor %xmm0, %xmm12, %xmm0 vpxor %xmm12, %xmm12, %xmm12 vpblendd $12, %xmm11, %xmm12, %xmm11 vpsllq $63, %xmm11, %xmm12 vpxor %xmm0, %xmm12, %xmm0 vpsllq $62, %xmm11, %xmm12 vpsllq $57, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpxor %xmm0, %xmm11, %xmm11 vpclmulqdq $0, %xmm11, %xmm11, %xmm0 vpbroadcastq .LCPI0_2(%rip), %xmm13 vpclmulqdq $16, %xmm13, %xmm0, %xmm12 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm0 vpclmulqdq $16, %xmm13, %xmm0, %xmm12 vpclmulqdq $17, %xmm11, %xmm11, %xmm14 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpclmulqdq $16, %xmm11, %xmm12, %xmm0 vpclmulqdq $1, %xmm11, %xmm12, %xmm14 vpxor %xmm0, %xmm14, %xmm0 vpclmulqdq $0, %xmm11, %xmm12, %xmm14 vpslldq $8, %xmm0, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $16, %xmm13, %xmm14, %xmm15 vpshufd $78, %xmm14, %xmm14 vpxor %xmm14, %xmm15, %xmm14 vpsrldq $8, %xmm0, %xmm0 vpclmulqdq $17, %xmm11, %xmm12, %xmm15 vpxor %xmm0, %xmm15, %xmm0 vpshufd $78, %xmm14, %xmm15 vpxor %xmm0, %xmm15, %xmm0 vpclmulqdq $16, %xmm13, %xmm14, %xmm14 vpxor %xmm0, %xmm14, %xmm14 vpclmulqdq $0, %xmm14, %xmm14, %xmm0 vpclmulqdq $16, %xmm13, %xmm0, %xmm15 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm15, %xmm0 vpclmulqdq $17, %xmm14, %xmm14, %xmm15 vpshufd $78, %xmm0, %xmm10 vpxor %xmm10, %xmm15, %xmm10 vpclmulqdq $16, %xmm13, %xmm0, %xmm0 vpxor %xmm0, %xmm10, %xmm0 vmovdqa %xmm0, -72(%rsp) vpclmulqdq $0, %xmm12, %xmm12, %xmm0 vpclmulqdq $16, %xmm13, %xmm0, %xmm10 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $17, %xmm12, %xmm12, %xmm10 vpshufd $78, %xmm0, %xmm15 vpxor %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm13, %xmm0, %xmm0 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $16, %xmm11, %xmm0, %xmm10 vpclmulqdq $1, %xmm11, %xmm0, %xmm15 vpxor %xmm10, %xmm15, %xmm10 vpclmulqdq $0, %xmm11, %xmm0, %xmm15 vpslldq $8, %xmm10, %xmm1 vpxor %xmm1, %xmm15, %xmm1 vpclmulqdq $16, %xmm13, %xmm1, %xmm15 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm15, %xmm1 vpsrldq $8, %xmm10, %xmm10 vpclmulqdq $17, %xmm11, %xmm0, %xmm15 vpxor %xmm10, %xmm15, %xmm10 vpclmulqdq $16, %xmm13, %xmm1, %xmm13 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm10, %xmm1 vpxor %xmm1, %xmm13, %xmm1 vmovaps -56(%rsp), %xmm10 vmovaps %xmm10, (%rdi) vmovaps -24(%rsp), %xmm10 vmovaps %xmm10, 16(%rdi) vmovdqa %xmm2, 32(%rdi) vmovdqa %xmm3, 48(%rdi) vmovdqa %xmm4, 64(%rdi) vmovdqa %xmm5, 80(%rdi) vmovdqa %xmm6, 96(%rdi) vmovdqa %xmm7, 112(%rdi) vmovdqa %xmm8, 128(%rdi) vmovdqa %xmm9, 144(%rdi) vmovaps -40(%rsp), %xmm2 vmovaps %xmm2, 160(%rdi) vmovdqa %xmm11, 176(%rdi) vmovdqa %xmm12, 192(%rdi) vmovdqa %xmm14, 208(%rdi) vmovdqa %xmm0, 224(%rdi) vmovdqa %xmm1, 240(%rdi) vmovaps -72(%rsp), %xmm0 vmovaps %xmm0, 256(%rdi) .LBB0_2: xorl %eax, %eax cmpq $16, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes128gcm_streaming_skylake_init_key, .Lfunc_end0-haberdashery_aes128gcm_streaming_skylake_init_key .cfi_endproc .section .text.haberdashery_aes128gcm_streaming_skylake_is_supported,"ax",@progbits .globl haberdashery_aes128gcm_streaming_skylake_is_supported .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_skylake_is_supported,@function haberdashery_aes128gcm_streaming_skylake_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $9175337, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end1: .size haberdashery_aes128gcm_streaming_skylake_is_supported, .Lfunc_end1-haberdashery_aes128gcm_streaming_skylake_is_supported .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_1: .long 1 .long 0 .long 0 .long 0 .section .text.haberdashery_aes128gcm_streaming_skylake_init_state,"ax",@progbits .globl haberdashery_aes128gcm_streaming_skylake_init_state .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_skylake_init_state,@function haberdashery_aes128gcm_streaming_skylake_init_state: .cfi_startproc cmpq $12, %rcx jne .LBB2_2 vmovd (%rdx), %xmm0 vpinsrd $1, 4(%rdx), %xmm0, %xmm0 vpinsrd $2, 8(%rdx), %xmm0, %xmm0 movl $16777216, %eax vpinsrd $3, %eax, %xmm0, %xmm0 vpshufb .LCPI2_0(%rip), %xmm0, %xmm1 vpaddd .LCPI2_1(%rip), %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmovups %ymm2, -56(%rsp) vmovups %ymm2, -88(%rsp) movq $0, -24(%rsp) vxorps %xmm2, %xmm2, %xmm2 vmovaps %xmm2, (%rdi) vmovdqa %xmm0, 16(%rdi) vmovdqa %xmm1, 32(%rdi) vmovups -56(%rsp), %ymm0 vmovups -40(%rsp), %xmm1 movq -24(%rsp), %rax movq -16(%rsp), %rdx vmovups %ymm0, 48(%rdi) vmovups %xmm1, 64(%rdi) movq %rax, 80(%rdi) movq %rdx, 88(%rdi) vmovaps %xmm2, 96(%rdi) .LBB2_2: xorl %eax, %eax cmpq $12, %rcx sete %al vzeroupper retq .Lfunc_end2: .size haberdashery_aes128gcm_streaming_skylake_init_state, .Lfunc_end2-haberdashery_aes128gcm_streaming_skylake_init_state .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI3_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI3_1: .zero 8 .quad -4467570830351532032 .LCPI3_2: .zero 16 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI3_3: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_streaming_skylake_aad_update,"ax",@progbits .globl haberdashery_aes128gcm_streaming_skylake_aad_update .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_skylake_aad_update,@function haberdashery_aes128gcm_streaming_skylake_aad_update: .cfi_startproc movabsq $-2305843009213693951, %rax leaq (%rcx,%rax), %r8 incq %rax cmpq %rax, %r8 jae .LBB3_3 xorl %eax, %eax retq .LBB3_3: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $24, %rsp .cfi_def_cfa_offset 80 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 96(%rdi), %r14 addq %rcx, %r14 xorl %eax, %eax movabsq $2305843009213693950, %r8 cmpq %r8, %r14 ja .LBB3_26 cmpq $0, 104(%rdi) jne .LBB3_26 movq 80(%rdi), %r8 testq %r8, %r8 je .LBB3_6 leaq (%r8,%rcx), %rbx cmpq $15, %rbx ja .LBB3_9 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%r8), %rax movq %rdi, %r15 movq %rax, %rdi movq %rdx, %rsi movq %rcx, %rdx movq %rcx, %r12 callq *memcpy@GOTPCREL(%rip) movq %r15, %rdi movq %r12, %rcx vmovdqa 64(%r15), %xmm0 vpxor (%rsp), %xmm0, %xmm0 jmp .LBB3_24 .LBB3_6: movq %rcx, %rbx cmpq $96, %rbx jae .LBB3_11 jmp .LBB3_14 .LBB3_9: vmovaps 64(%rdi), %xmm0 vmovaps %xmm0, (%rsp) movl $16, %eax subq %r8, %rax addq %rsp, %r8 leaq (%rdx,%rax), %r15 movq %rcx, %rbx subq %rax, %rbx movq %rdi, %r12 movq %r8, %rdi movq %rsi, %r13 movq %rdx, %rsi movq %rax, %rdx movq %rcx, %rbp callq *memcpy@GOTPCREL(%rip) movq %r13, %rsi movq %r12, %rdi movq %rbp, %rcx movq $0, 80(%r12) vmovdqa (%rsp), %xmm0 vmovdqa 176(%r13), %xmm1 vpshufb .LCPI3_0(%rip), %xmm0, %xmm0 vpxor (%r12), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI3_3(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%r12) movq %r15, %rdx cmpq $96, %rbx jb .LBB3_14 .LBB3_11: vmovdqu 32(%rdx), %xmm1 vmovdqu 48(%rdx), %xmm2 vmovdqu 64(%rdx), %xmm3 vmovdqu 80(%rdx), %xmm4 vmovdqa .LCPI3_0(%rip), %xmm0 vpshufb %xmm0, %xmm1, %xmm6 vpshufb %xmm0, %xmm2, %xmm5 vpshufb %xmm0, %xmm3, %xmm7 vpshufb %xmm0, %xmm4, %xmm8 vmovdqa 176(%rsi), %xmm1 vmovdqa 192(%rsi), %xmm2 vmovdqa 208(%rsi), %xmm3 vmovdqa 224(%rsi), %xmm4 vpclmulqdq $0, %xmm8, %xmm1, %xmm9 vpclmulqdq $1, %xmm8, %xmm1, %xmm10 vpclmulqdq $16, %xmm8, %xmm1, %xmm11 vpxor %xmm10, %xmm11, %xmm10 vpclmulqdq $17, %xmm8, %xmm1, %xmm8 vpclmulqdq $0, %xmm7, %xmm2, %xmm11 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $1, %xmm7, %xmm2, %xmm11 vpclmulqdq $16, %xmm7, %xmm2, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpclmulqdq $17, %xmm7, %xmm2, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm5, %xmm3, %xmm8 vpclmulqdq $1, %xmm5, %xmm3, %xmm11 vpclmulqdq $16, %xmm5, %xmm3, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpclmulqdq $0, %xmm6, %xmm4, %xmm12 vpxor %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $1, %xmm6, %xmm4, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vmovdqu 16(%rdx), %xmm11 vpshufb %xmm0, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm3, %xmm5 vpxor %xmm9, %xmm10, %xmm9 vpclmulqdq $17, %xmm6, %xmm4, %xmm10 vpxor %xmm5, %xmm10, %xmm10 vmovdqa 240(%rsi), %xmm5 vpclmulqdq $16, %xmm6, %xmm4, %xmm6 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $0, %xmm11, %xmm5, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $1, %xmm11, %xmm5, %xmm10 vpxor %xmm6, %xmm10, %xmm6 vpclmulqdq $16, %xmm11, %xmm5, %xmm10 vpxor %xmm6, %xmm10, %xmm6 vmovdqu (%rdx), %xmm10 vpshufb %xmm0, %xmm10, %xmm10 vpxor (%rdi), %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vmovdqa 256(%rsi), %xmm6 vpclmulqdq $17, %xmm11, %xmm5, %xmm11 vpxor %xmm7, %xmm11, %xmm7 vpclmulqdq $0, %xmm10, %xmm6, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $1, %xmm10, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $16, %xmm10, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $17, %xmm10, %xmm6, %xmm10 vpxor %xmm7, %xmm10, %xmm10 addq $96, %rdx addq $-96, %rbx cmpq $96, %rbx jb .LBB3_13 .p2align 4, 0x90 .LBB3_12: vmovdqu (%rdx), %xmm11 vmovdqu 32(%rdx), %xmm12 vmovdqu 48(%rdx), %xmm13 vmovdqu 64(%rdx), %xmm14 vmovdqu 80(%rdx), %xmm15 vpslldq $8, %xmm9, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpsrldq $8, %xmm9, %xmm8 vpxor %xmm8, %xmm10, %xmm8 vpbroadcastq .LCPI3_3(%rip), %xmm10 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpshufb %xmm0, %xmm11, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor %xmm7, %xmm9, %xmm10 vpshufb %xmm0, %xmm12, %xmm8 vpshufb %xmm0, %xmm13, %xmm7 vpshufb %xmm0, %xmm14, %xmm9 vpshufb %xmm0, %xmm15, %xmm11 vpclmulqdq $0, %xmm11, %xmm1, %xmm12 vpclmulqdq $1, %xmm11, %xmm1, %xmm13 vpclmulqdq $16, %xmm11, %xmm1, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $17, %xmm11, %xmm1, %xmm11 vpclmulqdq $0, %xmm9, %xmm2, %xmm14 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $1, %xmm9, %xmm2, %xmm14 vpclmulqdq $16, %xmm9, %xmm2, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpclmulqdq $17, %xmm9, %xmm2, %xmm9 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $0, %xmm7, %xmm3, %xmm11 vpclmulqdq $1, %xmm7, %xmm3, %xmm14 vpclmulqdq $16, %xmm7, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $0, %xmm8, %xmm4, %xmm15 vpxor %xmm15, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $1, %xmm8, %xmm4, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $17, %xmm7, %xmm3, %xmm7 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm8, %xmm4, %xmm13 vpxor %xmm7, %xmm13, %xmm7 vmovdqu 16(%rdx), %xmm13 vpshufb %xmm0, %xmm13, %xmm13 vpclmulqdq $16, %xmm8, %xmm4, %xmm8 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm13, %xmm5, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $1, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $16, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpxor %xmm8, %xmm12, %xmm11 vpclmulqdq $17, %xmm13, %xmm5, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm10, %xmm6, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $1, %xmm10, %xmm6, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $16, %xmm10, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $17, %xmm10, %xmm6, %xmm10 vpxor %xmm7, %xmm10, %xmm10 addq $96, %rdx addq $-96, %rbx cmpq $95, %rbx ja .LBB3_12 .LBB3_13: vpslldq $8, %xmm9, %xmm0 vpxor %xmm0, %xmm8, %xmm0 vpsrldq $8, %xmm9, %xmm1 vpxor %xmm1, %xmm10, %xmm1 vpbroadcastq .LCPI3_3(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vmovdqa %xmm0, (%rdi) .LBB3_14: cmpq $16, %rbx jae .LBB3_15 testq %rbx, %rbx jne .LBB3_23 jmp .LBB3_25 .LBB3_15: vmovdqa (%rdi), %xmm1 vmovdqa 176(%rsi), %xmm0 leaq -16(%rbx), %rax testb $16, %al jne .LBB3_17 vmovdqu (%rdx), %xmm2 addq $16, %rdx vpshufb .LCPI3_0(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpbroadcastq .LCPI3_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm3, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 movq %rax, %rbx .LBB3_17: cmpq $16, %rax jb .LBB3_21 vmovdqa .LCPI3_0(%rip), %xmm2 vpbroadcastq .LCPI3_3(%rip), %xmm3 .p2align 4, 0x90 .LBB3_19: vmovdqu (%rdx), %xmm4 vmovdqu 16(%rdx), %xmm5 vpshufb %xmm2, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 addq $32, %rdx addq $-32, %rbx vpshufb %xmm2, %xmm5, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm6, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $16, %xmm1, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm1 cmpq $15, %rbx ja .LBB3_19 movq %rbx, %rax .LBB3_21: vmovdqa %xmm1, (%rdi) movq %rax, %rbx testq %rbx, %rbx je .LBB3_25 .LBB3_23: vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rax movq %rdi, %r15 movq %rax, %rdi movq %rdx, %rsi movq %rbx, %rdx movq %rcx, %r12 callq *memcpy@GOTPCREL(%rip) movq %r15, %rdi movq %r12, %rcx vmovdqa (%rsp), %xmm0 vpxor %xmm1, %xmm1, %xmm1 vmovdqa %xmm1, 48(%r15) .LBB3_24: vmovdqa %xmm0, 64(%r15) movq %rbx, 80(%r15) .LBB3_25: movq %r14, 96(%rdi) movq %rcx, %rax .LBB3_26: addq $24, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp retq .Lfunc_end3: .size haberdashery_aes128gcm_streaming_skylake_aad_update, .Lfunc_end3-haberdashery_aes128gcm_streaming_skylake_aad_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI4_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI4_1: .zero 8 .quad -4467570830351532032 .LCPI4_2: .long 1 .long 0 .long 0 .long 0 .LCPI4_3: .long 2 .long 0 .long 0 .long 0 .LCPI4_4: .long 3 .long 0 .long 0 .long 0 .LCPI4_5: .long 4 .long 0 .long 0 .long 0 .LCPI4_6: .long 5 .long 0 .long 0 .long 0 .LCPI4_7: .long 6 .long 0 .long 0 .long 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI4_8: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_streaming_skylake_encrypt_update,"ax",@progbits .globl haberdashery_aes128gcm_streaming_skylake_encrypt_update .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_skylake_encrypt_update,@function haberdashery_aes128gcm_streaming_skylake_encrypt_update: .cfi_startproc cmpq %r9, %rcx jne .LBB4_3 movq %rcx, %rax movabsq $-68719476704, %rcx leaq (%rax,%rcx), %r9 incq %rcx cmpq %rcx, %r9 jb .LBB4_3 movq 104(%rdi), %rcx leaq (%rcx,%rax), %r11 movq %r11, %r9 shrq $5, %r9 cmpq $2147483646, %r9 jbe .LBB4_6 .LBB4_3: xorl %eax, %eax retq .LBB4_6: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $440, %rsp .cfi_def_cfa_offset 496 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 testq %rcx, %rcx setne %r9b movq 80(%rdi), %rcx testq %rcx, %rcx sete %r10b orb %r9b, %r10b je .LBB4_10 testq %rcx, %rcx je .LBB4_11 movq %r11, 16(%rsp) movq %rdi, %rbp leaq (%rcx,%rax), %rbx cmpq $15, %rbx ja .LBB4_12 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r14 movq memcpy@GOTPCREL(%rip), %r13 movq %r14, %rdi movq %rdx, %rsi movq %rax, %rdx movq %rax, %r15 movq %r8, %r12 callq *%r13 vmovdqa (%rsp), %xmm0 vpxor 64(%rbp), %xmm0, %xmm0 vmovdqa %xmm0, 64(%rbp) vmovdqa %xmm0, (%rsp) movq %r12, %rdi movq %r14, %rsi movq %r15, %r12 movq %r15, %rdx callq *%r13 movq %rbp, %rdi jmp .LBB4_24 .LBB4_10: vmovdqa 64(%rdi), %xmm0 vpshufb .LCPI4_0(%rip), %xmm0, %xmm0 vpxor (%rdi), %xmm0, %xmm0 vmovdqa 176(%rsi), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI4_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rdi) vpxor %xmm0, %xmm0, %xmm0 vmovdqu %ymm0, 48(%rdi) movq $0, 80(%rdi) .LBB4_11: movq %rax, %rbx cmpq $96, %rbx jb .LBB4_14 .LBB4_16: vmovups (%rdx), %xmm0 vmovaps %xmm0, 16(%rsp) vmovdqu 16(%rdx), %xmm2 vmovdqu 32(%rdx), %xmm3 vmovdqu 48(%rdx), %xmm4 vmovdqu 64(%rdx), %xmm6 vmovdqu 80(%rdx), %xmm5 vmovdqa 32(%rdi), %xmm1 vmovdqa .LCPI4_0(%rip), %xmm8 vpshufb %xmm8, %xmm1, %xmm7 vpaddd .LCPI4_2(%rip), %xmm1, %xmm9 vpshufb %xmm8, %xmm9, %xmm9 vpaddd .LCPI4_3(%rip), %xmm1, %xmm10 vpshufb %xmm8, %xmm10, %xmm11 vpaddd .LCPI4_4(%rip), %xmm1, %xmm10 vpshufb %xmm8, %xmm10, %xmm12 vpaddd .LCPI4_5(%rip), %xmm1, %xmm10 vpshufb %xmm8, %xmm10, %xmm13 vpaddd .LCPI4_6(%rip), %xmm1, %xmm10 vpshufb %xmm8, %xmm10, %xmm14 vpaddd .LCPI4_7(%rip), %xmm1, %xmm1 vmovdqa %xmm1, 32(%rdi) vmovdqa (%rsi), %xmm1 vmovaps 16(%rsi), %xmm15 vmovaps 32(%rsi), %xmm0 vpxor %xmm7, %xmm1, %xmm7 vpxor %xmm1, %xmm9, %xmm10 vpxor %xmm1, %xmm11, %xmm11 vpxor %xmm1, %xmm12, %xmm12 vpxor %xmm1, %xmm13, %xmm13 vpxor %xmm1, %xmm14, %xmm9 vmovaps %xmm15, 352(%rsp) #APP vaesenc %xmm15, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm9, %xmm9 #NO_APP vmovaps %xmm0, 336(%rsp) #APP vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm10, %xmm10 vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm12, %xmm12 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm9, %xmm9 #NO_APP vmovdqa 48(%rsi), %xmm0 #APP vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm10, %xmm10 vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm12, %xmm12 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm9, %xmm9 #NO_APP vmovaps 64(%rsi), %xmm14 vmovaps %xmm14, 320(%rsp) #APP vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 vaesenc %xmm14, %xmm13, %xmm13 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovaps 80(%rsi), %xmm14 vmovaps %xmm14, 304(%rsp) #APP vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 vaesenc %xmm14, %xmm13, %xmm13 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovaps 96(%rsi), %xmm14 vmovaps %xmm14, 288(%rsp) #APP vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 vaesenc %xmm14, %xmm13, %xmm13 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovaps 112(%rsi), %xmm14 vmovaps %xmm14, 272(%rsp) #APP vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 vaesenc %xmm14, %xmm13, %xmm13 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovaps 128(%rsi), %xmm14 vmovaps %xmm14, 256(%rsp) #APP vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 vaesenc %xmm14, %xmm13, %xmm13 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovaps 144(%rsi), %xmm14 vmovaps %xmm14, 240(%rsp) #APP vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 vaesenc %xmm14, %xmm13, %xmm13 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovaps 160(%rsi), %xmm14 vmovaps %xmm14, 224(%rsp) #APP vaesenclast %xmm14, %xmm7, %xmm7 vaesenclast %xmm14, %xmm10, %xmm10 vaesenclast %xmm14, %xmm11, %xmm11 vaesenclast %xmm14, %xmm12, %xmm12 vaesenclast %xmm14, %xmm13, %xmm13 vaesenclast %xmm14, %xmm9, %xmm9 #NO_APP vpxor %xmm5, %xmm9, %xmm9 vpxor %xmm6, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm14 vpxor %xmm3, %xmm11, %xmm12 vpxor %xmm2, %xmm10, %xmm3 vpxor 16(%rsp), %xmm7, %xmm11 addq $96, %rdx leaq 96(%r8), %rcx addq $-96, %rbx vmovdqu %xmm11, (%r8) vmovdqu %xmm3, 16(%r8) vmovdqu %xmm12, 32(%r8) vmovdqu %xmm14, 48(%r8) vmovdqu %xmm13, 64(%r8) vmovdqu %xmm9, 80(%r8) vmovdqa (%rdi), %xmm15 cmpq $96, %rbx jb .LBB4_19 vmovaps 176(%rsi), %xmm2 vmovaps %xmm2, 208(%rsp) vmovaps 192(%rsi), %xmm2 vmovaps %xmm2, 192(%rsp) vmovaps 208(%rsi), %xmm2 vmovaps %xmm2, 176(%rsp) vmovaps 224(%rsi), %xmm2 vmovaps %xmm2, 160(%rsp) vmovaps 240(%rsi), %xmm2 vmovaps %xmm2, 144(%rsp) vmovdqa 256(%rsi), %xmm2 vmovdqa %xmm2, 128(%rsp) vmovdqa %xmm1, 112(%rsp) vmovdqa %xmm0, 96(%rsp) .p2align 4, 0x90 .LBB4_18: vmovdqa %xmm12, 368(%rsp) vmovdqa %xmm3, 384(%rsp) vmovups (%rdx), %xmm0 vmovaps %xmm0, 16(%rsp) vmovups 16(%rdx), %xmm0 vmovaps %xmm0, 48(%rsp) vmovups 32(%rdx), %xmm0 vmovaps %xmm0, 32(%rsp) vmovups 48(%rdx), %xmm0 vmovaps %xmm0, 80(%rsp) vmovups 64(%rdx), %xmm0 vmovaps %xmm0, 64(%rsp) vmovups 80(%rdx), %xmm0 vmovaps %xmm0, 416(%rsp) vmovdqa 32(%rdi), %xmm0 vpaddd .LCPI4_2(%rip), %xmm0, %xmm2 vpshufb %xmm8, %xmm2, %xmm3 vpaddd .LCPI4_7(%rip), %xmm0, %xmm2 vmovdqa %xmm2, 32(%rdi) vpaddd .LCPI4_3(%rip), %xmm0, %xmm2 vpshufb %xmm8, %xmm2, %xmm4 vpshufb %xmm8, %xmm11, %xmm2 vpxor %xmm2, %xmm15, %xmm1 vmovdqa %xmm1, 400(%rsp) vpaddd .LCPI4_4(%rip), %xmm0, %xmm5 vpshufb %xmm8, %xmm5, %xmm5 vpaddd .LCPI4_5(%rip), %xmm0, %xmm7 vpshufb %xmm8, %xmm7, %xmm7 vpshufb %xmm8, %xmm0, %xmm10 vpaddd .LCPI4_6(%rip), %xmm0, %xmm0 vmovdqa %xmm8, %xmm12 vpshufb %xmm8, %xmm0, %xmm8 vpshufb %xmm12, %xmm9, %xmm1 vmovdqa 112(%rsp), %xmm2 vpxor %xmm2, %xmm10, %xmm11 vpxor %xmm3, %xmm2, %xmm15 vpxor %xmm4, %xmm2, %xmm10 vpxor %xmm5, %xmm2, %xmm0 vpxor %xmm7, %xmm2, %xmm3 vpxor %xmm2, %xmm8, %xmm9 vmovaps 352(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm11, %xmm11 vaesenc %xmm2, %xmm15, %xmm15 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm9, %xmm9 #NO_APP vpxor %xmm4, %xmm4, %xmm4 vpxor %xmm5, %xmm5, %xmm5 vpxor %xmm7, %xmm7, %xmm7 vmovdqa %xmm14, %xmm2 vmovaps 208(%rsp), %xmm14 vmovaps 336(%rsp), %xmm6 #APP vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm6, %xmm10, %xmm10 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm9, %xmm9 vpclmulqdq $16, %xmm14, %xmm1, %xmm8 vpxor %xmm4, %xmm8, %xmm4 vpclmulqdq $0, %xmm14, %xmm1, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm14, %xmm1, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $1, %xmm14, %xmm1, %xmm8 vpxor %xmm4, %xmm8, %xmm4 #NO_APP vmovdqa %xmm12, %xmm8 vpshufb %xmm12, %xmm13, %xmm1 vmovaps 192(%rsp), %xmm12 vmovaps 96(%rsp), %xmm13 #APP vaesenc %xmm13, %xmm11, %xmm11 vaesenc %xmm13, %xmm15, %xmm15 vaesenc %xmm13, %xmm10, %xmm10 vaesenc %xmm13, %xmm0, %xmm0 vaesenc %xmm13, %xmm3, %xmm3 vaesenc %xmm13, %xmm9, %xmm9 vpclmulqdq $16, %xmm12, %xmm1, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $0, %xmm12, %xmm1, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpclmulqdq $17, %xmm12, %xmm1, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $1, %xmm12, %xmm1, %xmm6 vpxor %xmm6, %xmm4, %xmm4 #NO_APP vpshufb %xmm8, %xmm2, %xmm1 vmovaps 176(%rsp), %xmm2 vmovaps 320(%rsp), %xmm12 #APP vaesenc %xmm12, %xmm11, %xmm11 vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm10, %xmm10 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm9, %xmm9 vpclmulqdq $16, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $0, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpclmulqdq $17, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $1, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm4, %xmm4 #NO_APP vmovdqa 368(%rsp), %xmm1 vpshufb %xmm8, %xmm1, %xmm1 vmovaps 160(%rsp), %xmm2 vmovaps 304(%rsp), %xmm12 #APP vaesenc %xmm12, %xmm11, %xmm11 vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm10, %xmm10 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm9, %xmm9 vpclmulqdq $16, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $0, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpclmulqdq $17, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $1, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm4, %xmm4 #NO_APP vmovdqa 384(%rsp), %xmm1 vpshufb %xmm8, %xmm1, %xmm1 vmovaps 144(%rsp), %xmm2 vmovaps 288(%rsp), %xmm12 #APP vaesenc %xmm12, %xmm11, %xmm11 vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm10, %xmm10 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm9, %xmm9 vpclmulqdq $16, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $0, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpclmulqdq $17, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $1, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm4, %xmm4 #NO_APP vmovaps 272(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm9, %xmm9 #NO_APP vmovaps 128(%rsp), %xmm2 vmovdqa 256(%rsp), %xmm6 vmovaps 400(%rsp), %xmm12 #APP vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm6, %xmm10, %xmm10 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm9, %xmm9 vpclmulqdq $16, %xmm2, %xmm12, %xmm1 vpxor %xmm1, %xmm4, %xmm4 vpclmulqdq $0, %xmm2, %xmm12, %xmm1 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $17, %xmm2, %xmm12, %xmm1 vpxor %xmm1, %xmm5, %xmm5 vpclmulqdq $1, %xmm2, %xmm12, %xmm1 vpxor %xmm1, %xmm4, %xmm4 #NO_APP vmovaps 240(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm9, %xmm9 #NO_APP vmovdqa 224(%rsp), %xmm1 #APP vaesenclast %xmm1, %xmm11, %xmm11 vaesenclast %xmm1, %xmm15, %xmm15 vaesenclast %xmm1, %xmm10, %xmm10 vaesenclast %xmm1, %xmm0, %xmm0 vaesenclast %xmm1, %xmm3, %xmm3 vaesenclast %xmm1, %xmm9, %xmm9 #NO_APP vpxor 416(%rsp), %xmm9, %xmm9 vpxor 64(%rsp), %xmm3, %xmm13 vpxor 80(%rsp), %xmm0, %xmm14 vpxor 32(%rsp), %xmm10, %xmm12 vpxor 48(%rsp), %xmm15, %xmm3 vpxor 16(%rsp), %xmm11, %xmm11 vpxor %xmm1, %xmm1, %xmm1 vpunpcklqdq %xmm4, %xmm1, %xmm0 vpxor %xmm0, %xmm7, %xmm0 vpunpckhqdq %xmm1, %xmm4, %xmm1 vpxor %xmm1, %xmm5, %xmm1 vpbroadcastq .LCPI4_8(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpshufd $78, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm15 vmovdqu %xmm11, (%rcx) vmovdqu %xmm3, 16(%rcx) vmovdqu %xmm12, 32(%rcx) vmovdqu %xmm14, 48(%rcx) vmovdqu %xmm13, 64(%rcx) addq $96, %rdx vmovdqu %xmm9, 80(%rcx) addq $96, %rcx addq $-96, %rbx cmpq $95, %rbx ja .LBB4_18 .LBB4_19: vpshufb %xmm8, %xmm11, %xmm0 vpxor %xmm0, %xmm15, %xmm0 vpshufb %xmm8, %xmm3, %xmm1 vpshufb %xmm8, %xmm12, %xmm4 vpshufb %xmm8, %xmm14, %xmm5 vpshufb %xmm8, %xmm13, %xmm6 vpshufb %xmm8, %xmm9, %xmm7 vmovdqa 176(%rsi), %xmm8 vmovdqa 192(%rsi), %xmm9 vmovdqa 208(%rsi), %xmm10 vmovdqa 224(%rsi), %xmm11 vmovdqa 240(%rsi), %xmm3 vmovdqa 256(%rsi), %xmm2 vpclmulqdq $0, %xmm7, %xmm8, %xmm12 vpclmulqdq $1, %xmm7, %xmm8, %xmm13 vpclmulqdq $16, %xmm7, %xmm8, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $17, %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm6, %xmm9, %xmm8 vpxor %xmm12, %xmm8, %xmm8 vpclmulqdq $1, %xmm6, %xmm9, %xmm12 vpclmulqdq $16, %xmm6, %xmm9, %xmm14 vpxor %xmm14, %xmm12, %xmm12 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm6, %xmm9, %xmm6 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm10, %xmm7 vpclmulqdq $1, %xmm5, %xmm10, %xmm9 vpclmulqdq $16, %xmm5, %xmm10, %xmm13 vpxor %xmm13, %xmm9, %xmm9 vpclmulqdq $17, %xmm5, %xmm10, %xmm5 vpclmulqdq $0, %xmm4, %xmm11, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $1, %xmm4, %xmm11, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpxor %xmm8, %xmm12, %xmm8 vpclmulqdq $16, %xmm4, %xmm11, %xmm9 vpclmulqdq $17, %xmm4, %xmm11, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $0, %xmm1, %xmm3, %xmm5 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $1, %xmm1, %xmm3, %xmm6 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $16, %xmm1, %xmm3, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm1, %xmm3, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $0, %xmm0, %xmm2, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $1, %xmm0, %xmm2, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm0, %xmm2, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $17, %xmm0, %xmm2, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm4, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpsrldq $8, %xmm4, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI4_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vmovdqa %xmm0, (%rdi) movq %rcx, %r8 cmpq $16, %rbx jae .LBB4_20 .LBB4_15: testq %rbx, %rbx jne .LBB4_23 jmp .LBB4_25 .LBB4_12: movl $16, %r14d subq %rcx, %r14 leaq (%rdx,%r14), %rdi movq %rdi, 32(%rsp) leaq (%r8,%r14), %rdi movq %rdi, 80(%rsp) movq %rax, %rbx subq %r14, %rbx vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r15 movq %r15, %rdi movq %rsi, 48(%rsp) movq %rdx, %rsi movq %r14, %rdx movq %rax, %r13 movq %r8, %r12 callq *memcpy@GOTPCREL(%rip) vmovaps (%rsp), %xmm0 vxorps 64(%rbp), %xmm0, %xmm0 vmovaps %xmm0, 64(%rsp) vmovaps %xmm0, 64(%rbp) vmovaps %xmm0, (%rsp) movq %r12, %rdi movq %r15, %rsi movq %r14, %rdx callq *memcpy@GOTPCREL(%rip) movq 48(%rsp), %rsi movq %rbp, %rdi movq %r13, %rax movq $0, 80(%rbp) vmovdqa 176(%rsi), %xmm0 vmovdqa 64(%rsp), %xmm1 vpshufb .LCPI4_0(%rip), %xmm1, %xmm1 vpxor (%rbp), %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI4_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rbp) movq 80(%rsp), %r8 movq 32(%rsp), %rdx movq 16(%rsp), %r11 cmpq $96, %rbx jae .LBB4_16 .LBB4_14: cmpq $16, %rbx jb .LBB4_15 .LBB4_20: vmovdqa (%rdi), %xmm14 vmovdqa 32(%rdi), %xmm0 vmovaps (%rsi), %xmm1 vmovaps %xmm1, 16(%rsp) vmovaps 16(%rsi), %xmm1 vmovaps %xmm1, 48(%rsp) vmovdqa 32(%rsi), %xmm1 vmovdqa %xmm1, 32(%rsp) vmovdqa 48(%rsi), %xmm4 vmovdqa 64(%rsi), %xmm5 vmovdqa 80(%rsi), %xmm6 vmovdqa 96(%rsi), %xmm7 vmovdqa 112(%rsi), %xmm8 vmovdqa 128(%rsi), %xmm9 vmovdqa 144(%rsi), %xmm10 vmovdqa 160(%rsi), %xmm11 vmovdqa 176(%rsi), %xmm12 vmovdqa .LCPI4_0(%rip), %xmm13 vpbroadcastq .LCPI4_8(%rip), %xmm15 .p2align 4, 0x90 .LBB4_21: vpshufb %xmm13, %xmm0, %xmm1 vpxor 16(%rsp), %xmm1, %xmm1 vaesenc 48(%rsp), %xmm1, %xmm1 vaesenc 32(%rsp), %xmm1, %xmm1 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm5, %xmm1, %xmm1 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm10, %xmm1, %xmm1 vaesenclast %xmm11, %xmm1, %xmm1 vpxor (%rdx), %xmm1, %xmm1 vmovdqu %xmm1, (%r8) vpshufb %xmm13, %xmm1, %xmm1 vpxor %xmm1, %xmm14, %xmm1 vpclmulqdq $0, %xmm1, %xmm12, %xmm14 vpclmulqdq $1, %xmm1, %xmm12, %xmm2 vpclmulqdq $16, %xmm1, %xmm12, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm14, %xmm3 vpclmulqdq $17, %xmm1, %xmm12, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm15, %xmm3, %xmm2 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpshufd $78, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm15, %xmm2, %xmm2 vpxor %xmm1, %xmm2, %xmm14 addq $16, %rdx addq $16, %r8 addq $-16, %rbx vpaddd .LCPI4_2(%rip), %xmm0, %xmm0 cmpq $15, %rbx ja .LBB4_21 vmovdqa %xmm0, 32(%rdi) vmovdqa %xmm14, (%rdi) testq %rbx, %rbx je .LBB4_25 .LBB4_23: movq %r11, 16(%rsp) movq %rax, %r12 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rax movq memcpy@GOTPCREL(%rip), %r13 movq %rdi, %r15 movq %rax, %rdi movq %rsi, %rbp movq %rdx, %rsi movq %rbx, %rdx movq %r8, %r14 vzeroupper callq *%r13 vmovdqa 32(%r15), %xmm0 vpshufb .LCPI4_0(%rip), %xmm0, %xmm1 vpaddd .LCPI4_2(%rip), %xmm0, %xmm0 vmovdqa %xmm0, 32(%r15) vpxor (%rbp), %xmm1, %xmm0 vaesenc 16(%rbp), %xmm0, %xmm0 vaesenc 32(%rbp), %xmm0, %xmm0 vaesenc 48(%rbp), %xmm0, %xmm0 vaesenc 64(%rbp), %xmm0, %xmm0 vaesenc 80(%rbp), %xmm0, %xmm0 vaesenc 96(%rbp), %xmm0, %xmm0 vaesenc 112(%rbp), %xmm0, %xmm0 vaesenc 128(%rbp), %xmm0, %xmm0 vaesenc 144(%rbp), %xmm0, %xmm0 vmovdqa (%rsp), %xmm1 vaesenclast 160(%rbp), %xmm0, %xmm0 vmovdqa %xmm0, 48(%rsp) vpxor %xmm1, %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) vmovdqa %xmm0, (%rsp) movq %rsp, %rsi movq %r14, %rdi movq %rbx, %rdx callq *%r13 movq %r15, %rdi vmovaps 48(%rsp), %xmm0 vmovaps %xmm0, 48(%r15) vmovdqa 32(%rsp), %xmm0 vmovdqa %xmm0, 64(%r15) .LBB4_24: movq %rbx, 80(%rdi) movq %r12, %rax movq 16(%rsp), %r11 .LBB4_25: movq %r11, 104(%rdi) addq $440, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp vzeroupper retq .Lfunc_end4: .size haberdashery_aes128gcm_streaming_skylake_encrypt_update, .Lfunc_end4-haberdashery_aes128gcm_streaming_skylake_encrypt_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI5_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI5_1: .zero 8 .quad -4467570830351532032 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI5_2: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_streaming_skylake_encrypt_finalize,"ax",@progbits .globl haberdashery_aes128gcm_streaming_skylake_encrypt_finalize .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_skylake_encrypt_finalize,@function haberdashery_aes128gcm_streaming_skylake_encrypt_finalize: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $56, %rsp .cfi_def_cfa_offset 112 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq %rcx, %rbx movq %rsi, %r15 movq %rdi, %r12 movq 104(%rdi), %rbp testq %rbp, %rbp je .LBB5_1 movq %rdx, 8(%rsp) leaq 48(%r12), %r14 vmovaps 64(%r12), %xmm0 movq 80(%r12), %r13 vmovaps %xmm0, 32(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 16(%rsp) leaq 16(%rsp), %rdi leaq 32(%rsp), %rsi movq %r13, %rdx callq *memcpy@GOTPCREL(%rip) vmovdqa (%r12), %xmm0 testq %r13, %r13 je .LBB5_4 vmovdqa 16(%rsp), %xmm1 vpshufb .LCPI5_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm2 vmovdqa 176(%r15), %xmm3 vpclmulqdq $0, %xmm2, %xmm3, %xmm0 vpclmulqdq $1, %xmm2, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm3, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm2, %xmm3, %xmm2 movq 8(%rsp), %rdx jmp .LBB5_6 .LBB5_1: cmpq $0, 80(%r12) vmovdqa (%r12), %xmm0 je .LBB5_8 vmovdqa 176(%r15), %xmm2 leaq 48(%r12), %r14 vmovdqa 64(%r12), %xmm1 vpshufb .LCPI5_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm3 vpclmulqdq $0, %xmm3, %xmm2, %xmm0 vpclmulqdq $1, %xmm3, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm3, %xmm2, %xmm2 .LBB5_6: vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI5_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm0, %xmm2, %xmm0 jmp .LBB5_7 .LBB5_4: movq 8(%rsp), %rdx .LBB5_7: vpxor %xmm1, %xmm1, %xmm1 vmovdqu %ymm1, (%r14) movq $0, 32(%r14) .LBB5_8: vmovdqa 176(%r15), %xmm1 vmovq 96(%r12), %xmm2 vmovq %rbp, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI5_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%r12) testq %rbx, %rbx je .LBB5_9 vmovdqa (%r15), %xmm1 vpxor 16(%r12), %xmm1, %xmm1 vaesenc 16(%r15), %xmm1, %xmm1 vaesenc 32(%r15), %xmm1, %xmm1 vaesenc 48(%r15), %xmm1, %xmm1 vaesenc 64(%r15), %xmm1, %xmm1 vaesenc 80(%r15), %xmm1, %xmm1 vaesenc 96(%r15), %xmm1, %xmm1 vaesenc 112(%r15), %xmm1, %xmm1 vaesenc 128(%r15), %xmm1, %xmm1 vaesenc 144(%r15), %xmm1, %xmm1 vaesenclast 160(%r15), %xmm1, %xmm1 vpshufb .LCPI5_0(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 cmpq $16, %rbx jae .LBB5_11 vmovdqa %xmm0, 16(%rsp) leaq 16(%rsp), %rsi movq %rdx, %rdi movq %rbx, %rdx vzeroupper callq *memcpy@GOTPCREL(%rip) jmp .LBB5_13 .LBB5_9: xorl %ebx, %ebx jmp .LBB5_13 .LBB5_11: vmovdqu %xmm0, (%rdx) movl $16, %ebx .LBB5_13: movq %rbx, %rax addq $56, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 vzeroupper retq .Lfunc_end5: .size haberdashery_aes128gcm_streaming_skylake_encrypt_finalize, .Lfunc_end5-haberdashery_aes128gcm_streaming_skylake_encrypt_finalize .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI6_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI6_1: .zero 8 .quad -4467570830351532032 .LCPI6_2: .long 1 .long 0 .long 0 .long 0 .LCPI6_3: .long 2 .long 0 .long 0 .long 0 .LCPI6_4: .long 3 .long 0 .long 0 .long 0 .LCPI6_5: .long 4 .long 0 .long 0 .long 0 .LCPI6_6: .long 5 .long 0 .long 0 .long 0 .LCPI6_7: .long 6 .long 0 .long 0 .long 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI6_8: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_streaming_skylake_decrypt_update,"ax",@progbits .globl haberdashery_aes128gcm_streaming_skylake_decrypt_update .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_skylake_decrypt_update,@function haberdashery_aes128gcm_streaming_skylake_decrypt_update: .cfi_startproc cmpq %r9, %rcx jne .LBB6_2 movq %rcx, %rax movabsq $-68719476704, %rcx leaq (%rax,%rcx), %r9 incq %rcx cmpq %rcx, %r9 jae .LBB6_3 .LBB6_2: xorl %eax, %eax retq .LBB6_3: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $392, %rsp .cfi_def_cfa_offset 448 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 104(%rdi), %rcx leaq (%rcx,%rax), %r13 movq %r13, %r9 shrq $5, %r9 cmpq $2147483646, %r9 jbe .LBB6_5 xorl %eax, %eax jmp .LBB6_24 .LBB6_5: testq %rcx, %rcx setne %r9b movq 80(%rdi), %rcx testq %rcx, %rcx sete %r10b orb %r9b, %r10b je .LBB6_9 testq %rcx, %rcx je .LBB6_10 movq %rdi, %rbp leaq (%rcx,%rax), %rbx cmpq $15, %rbx movq %rax, 56(%rsp) ja .LBB6_11 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r14 movq %r14, %rdi movq %rdx, %rsi movq %rax, %rdx movq %rax, %r15 movq %r8, %r12 callq *memcpy@GOTPCREL(%rip) vmovdqa (%rsp), %xmm0 vpxor 64(%rbp), %xmm0, %xmm0 vmovdqa %xmm0, 64(%rbp) vmovdqa %xmm0, (%rsp) movq %r12, %rdi movq %r14, %rsi movq %r15, %rdx callq *memcpy@GOTPCREL(%rip) movq %rbp, %rdi jmp .LBB6_22 .LBB6_9: vmovdqa 64(%rdi), %xmm0 vpshufb .LCPI6_0(%rip), %xmm0, %xmm0 vpxor (%rdi), %xmm0, %xmm0 vmovdqa 176(%rsi), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI6_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rdi) vpxor %xmm0, %xmm0, %xmm0 vmovdqu %ymm0, 48(%rdi) movq $0, 80(%rdi) .LBB6_10: movq %rax, %rbx cmpq $96, %rbx jb .LBB6_13 .LBB6_15: vmovdqa (%rdi), %xmm3 vmovaps (%rsi), %xmm0 vmovaps %xmm0, 96(%rsp) vmovaps 16(%rsi), %xmm0 vmovaps %xmm0, 352(%rsp) vmovaps 32(%rsi), %xmm0 vmovaps %xmm0, 336(%rsp) vmovaps 48(%rsi), %xmm0 vmovaps %xmm0, 320(%rsp) vmovaps 64(%rsi), %xmm0 vmovaps %xmm0, 304(%rsp) vmovaps 80(%rsi), %xmm0 vmovaps %xmm0, 288(%rsp) vmovaps 96(%rsi), %xmm0 vmovaps %xmm0, 272(%rsp) vmovaps 112(%rsi), %xmm0 vmovaps %xmm0, 256(%rsp) vmovaps 128(%rsi), %xmm0 vmovaps %xmm0, 240(%rsp) vmovaps 144(%rsi), %xmm0 vmovaps %xmm0, 224(%rsp) vmovaps 160(%rsi), %xmm0 vmovaps %xmm0, 208(%rsp) vmovaps 176(%rsi), %xmm0 vmovaps %xmm0, 192(%rsp) vmovaps 192(%rsi), %xmm0 vmovaps %xmm0, 176(%rsp) vmovaps 208(%rsi), %xmm0 vmovaps %xmm0, 160(%rsp) vmovaps 224(%rsi), %xmm0 vmovaps %xmm0, 144(%rsp) vmovaps 240(%rsi), %xmm0 vmovaps %xmm0, 128(%rsp) vmovdqa 256(%rsi), %xmm0 vmovdqa %xmm0, 112(%rsp) .p2align 4, 0x90 .LBB6_16: vmovdqu (%rdx), %xmm6 vmovdqa %xmm6, 80(%rsp) vmovups 16(%rdx), %xmm0 vmovaps %xmm0, 32(%rsp) vmovups 32(%rdx), %xmm0 vmovaps %xmm0, 16(%rsp) vmovdqu 48(%rdx), %xmm10 vmovdqu 64(%rdx), %xmm7 vmovdqu 80(%rdx), %xmm8 vmovdqa %xmm8, 64(%rsp) vmovdqa 32(%rdi), %xmm0 vmovdqa .LCPI6_0(%rip), %xmm2 vpshufb %xmm2, %xmm0, %xmm1 vpaddd .LCPI6_2(%rip), %xmm0, %xmm4 vpshufb %xmm2, %xmm4, %xmm4 vpaddd .LCPI6_3(%rip), %xmm0, %xmm5 vpshufb %xmm2, %xmm5, %xmm5 vpaddd .LCPI6_4(%rip), %xmm0, %xmm11 vpshufb %xmm2, %xmm11, %xmm14 vpaddd .LCPI6_5(%rip), %xmm0, %xmm11 vpshufb %xmm2, %xmm11, %xmm15 vpaddd .LCPI6_6(%rip), %xmm0, %xmm11 vpaddd .LCPI6_7(%rip), %xmm0, %xmm0 vmovdqa %xmm0, 32(%rdi) vpshufb %xmm2, %xmm11, %xmm0 vpshufb %xmm2, %xmm6, %xmm11 vpxor %xmm3, %xmm11, %xmm3 vmovdqa %xmm3, 368(%rsp) vpshufb %xmm2, %xmm8, %xmm6 vmovdqa 96(%rsp), %xmm3 vpxor %xmm1, %xmm3, %xmm11 vpxor %xmm4, %xmm3, %xmm12 vpxor %xmm5, %xmm3, %xmm13 vpxor %xmm3, %xmm14, %xmm14 vpxor %xmm3, %xmm15, %xmm15 vpxor %xmm0, %xmm3, %xmm1 vmovaps 352(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm12, %xmm12 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 #NO_APP vpxor %xmm4, %xmm4, %xmm4 vxorps %xmm0, %xmm0, %xmm0 vpxor %xmm5, %xmm5, %xmm5 vmovaps 336(%rsp), %xmm8 vmovaps 192(%rsp), %xmm9 #APP vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vpclmulqdq $16, %xmm9, %xmm6, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpclmulqdq $0, %xmm9, %xmm6, %xmm3 vpxor %xmm3, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm6, %xmm3 vpxor %xmm3, %xmm5, %xmm5 vpclmulqdq $1, %xmm9, %xmm6, %xmm3 vpxor %xmm3, %xmm0, %xmm0 #NO_APP vpshufb %xmm2, %xmm7, %xmm3 vmovaps 320(%rsp), %xmm8 vmovaps 176(%rsp), %xmm9 #APP vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vpclmulqdq $16, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $0, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $1, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm0, %xmm0 #NO_APP vpshufb %xmm2, %xmm10, %xmm3 vmovaps 304(%rsp), %xmm8 vmovaps 160(%rsp), %xmm9 #APP vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vpclmulqdq $16, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $0, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $1, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm0, %xmm0 #NO_APP vmovdqa 16(%rsp), %xmm3 vpshufb %xmm2, %xmm3, %xmm3 vmovaps 288(%rsp), %xmm8 vmovaps 144(%rsp), %xmm9 #APP vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vpclmulqdq $16, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $0, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $1, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm0, %xmm0 #NO_APP vmovdqa 32(%rsp), %xmm3 vpshufb %xmm2, %xmm3, %xmm3 vmovaps 272(%rsp), %xmm8 vmovdqa 128(%rsp), %xmm9 #APP vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vpclmulqdq $16, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $0, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $1, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm0, %xmm0 #NO_APP vmovaps 256(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm1, %xmm1 #NO_APP vmovdqa 240(%rsp), %xmm6 vmovaps 112(%rsp), %xmm8 vmovdqa 368(%rsp), %xmm2 #APP vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm14, %xmm14 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm6, %xmm1, %xmm1 vpclmulqdq $16, %xmm8, %xmm2, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpclmulqdq $0, %xmm8, %xmm2, %xmm3 vpxor %xmm3, %xmm4, %xmm4 vpclmulqdq $17, %xmm8, %xmm2, %xmm3 vpxor %xmm3, %xmm5, %xmm5 vpclmulqdq $1, %xmm8, %xmm2, %xmm3 vpxor %xmm3, %xmm0, %xmm0 #NO_APP vpxor %xmm6, %xmm6, %xmm6 vpunpcklqdq %xmm0, %xmm6, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpunpckhqdq %xmm6, %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpbroadcastq .LCPI6_8(%rip), %xmm5 vpclmulqdq $16, %xmm5, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpshufd $78, %xmm3, %xmm4 vpxor %xmm4, %xmm0, %xmm0 vpclmulqdq $16, %xmm5, %xmm3, %xmm3 vpxor %xmm3, %xmm0, %xmm3 vmovaps 224(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm12, %xmm12 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 #NO_APP vmovaps 208(%rsp), %xmm0 #APP vaesenclast %xmm0, %xmm11, %xmm11 vaesenclast %xmm0, %xmm12, %xmm12 vaesenclast %xmm0, %xmm13, %xmm13 vaesenclast %xmm0, %xmm14, %xmm14 vaesenclast %xmm0, %xmm15, %xmm15 vaesenclast %xmm0, %xmm1, %xmm1 #NO_APP vpxor 80(%rsp), %xmm11, %xmm0 vpxor 32(%rsp), %xmm12, %xmm4 vpxor 16(%rsp), %xmm13, %xmm5 vpxor %xmm10, %xmm14, %xmm6 vpxor %xmm7, %xmm15, %xmm8 vpxor 64(%rsp), %xmm1, %xmm1 vmovdqu %xmm0, (%r8) vmovdqu %xmm4, 16(%r8) vmovdqu %xmm5, 32(%r8) vmovdqu %xmm6, 48(%r8) vmovdqu %xmm8, 64(%r8) vmovdqu %xmm1, 80(%r8) addq $96, %rdx addq $96, %r8 addq $-96, %rbx cmpq $95, %rbx ja .LBB6_16 vmovdqa %xmm3, (%rdi) cmpq $16, %rbx jae .LBB6_18 .LBB6_14: testq %rbx, %rbx jne .LBB6_21 jmp .LBB6_23 .LBB6_11: movl $16, %r14d subq %rcx, %r14 leaq (%rdx,%r14), %rdi movq %rdi, 16(%rsp) leaq (%r8,%r14), %rdi movq %rdi, 80(%rsp) movq %rax, %rbx subq %r14, %rbx vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r15 movq %r15, %rdi movq %rsi, 32(%rsp) movq %rdx, %rsi movq %r14, %rdx movq %r8, %r12 callq *memcpy@GOTPCREL(%rip) vmovaps (%rsp), %xmm0 vxorps 64(%rbp), %xmm0, %xmm0 vmovaps %xmm0, 64(%rsp) vmovaps %xmm0, 64(%rbp) vmovaps %xmm0, (%rsp) movq %r12, %rdi movq %r15, %rsi movq %r14, %rdx callq *memcpy@GOTPCREL(%rip) movq 32(%rsp), %rsi movq %rbp, %rdi movq 56(%rsp), %rax movq $0, 80(%rbp) vmovdqa 64(%rsp), %xmm0 vpxor 48(%rbp), %xmm0, %xmm0 vpshufb .LCPI6_0(%rip), %xmm0, %xmm0 vmovdqa 176(%rsi), %xmm1 vpxor (%rbp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI6_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rbp) movq 80(%rsp), %r8 movq 16(%rsp), %rdx cmpq $96, %rbx jae .LBB6_15 .LBB6_13: cmpq $16, %rbx jb .LBB6_14 .LBB6_18: vmovdqa (%rdi), %xmm15 vmovdqa 32(%rdi), %xmm0 vmovdqa 176(%rsi), %xmm1 vmovaps (%rsi), %xmm2 vmovaps %xmm2, 32(%rsp) vmovaps 16(%rsi), %xmm2 vmovaps %xmm2, 16(%rsp) vmovaps 32(%rsi), %xmm2 vmovaps %xmm2, 80(%rsp) vmovdqa 48(%rsi), %xmm2 vmovdqa %xmm2, 64(%rsp) vmovdqa 64(%rsi), %xmm6 vmovdqa 80(%rsi), %xmm7 vmovdqa 96(%rsi), %xmm8 vmovdqa 112(%rsi), %xmm9 vmovdqa 128(%rsi), %xmm10 vmovdqa 144(%rsi), %xmm11 vmovdqa 160(%rsi), %xmm12 vmovdqa .LCPI6_0(%rip), %xmm13 vpbroadcastq .LCPI6_8(%rip), %xmm14 .p2align 4, 0x90 .LBB6_19: vmovdqu (%rdx), %xmm2 vpshufb %xmm13, %xmm2, %xmm3 vpxor %xmm3, %xmm15, %xmm3 vpclmulqdq $0, %xmm3, %xmm1, %xmm15 vpclmulqdq $1, %xmm3, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm1, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm15, %xmm5 vpclmulqdq $17, %xmm3, %xmm1, %xmm3 vpsrldq $8, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm14, %xmm5, %xmm4 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpshufd $78, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpshufb %xmm13, %xmm0, %xmm5 vpxor 32(%rsp), %xmm5, %xmm5 vaesenc 16(%rsp), %xmm5, %xmm5 vaesenc 80(%rsp), %xmm5, %xmm5 vaesenc 64(%rsp), %xmm5, %xmm5 vaesenc %xmm6, %xmm5, %xmm5 vaesenc %xmm7, %xmm5, %xmm5 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm11, %xmm5, %xmm5 vaesenclast %xmm12, %xmm5, %xmm5 vpxor %xmm2, %xmm5, %xmm2 vmovdqu %xmm2, (%r8) vpclmulqdq $16, %xmm14, %xmm4, %xmm2 vpxor %xmm3, %xmm2, %xmm15 addq $16, %r8 addq $-16, %rbx addq $16, %rdx vpaddd .LCPI6_2(%rip), %xmm0, %xmm0 cmpq $15, %rbx ja .LBB6_19 vmovdqa %xmm0, 32(%rdi) vmovdqa %xmm15, (%rdi) testq %rbx, %rbx je .LBB6_23 .LBB6_21: movq %rax, 56(%rsp) vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rax movq memcpy@GOTPCREL(%rip), %r12 movq %rdi, %r15 movq %rax, %rdi movq %r13, %rbp movq %rsi, %r13 movq %rdx, %rsi movq %rbx, %rdx movq %r8, %r14 vzeroupper callq *%r12 vmovdqa 32(%r15), %xmm0 vpshufb .LCPI6_0(%rip), %xmm0, %xmm1 vpaddd .LCPI6_2(%rip), %xmm0, %xmm0 vmovdqa %xmm0, 32(%r15) vpxor (%r13), %xmm1, %xmm0 vaesenc 16(%r13), %xmm0, %xmm0 vaesenc 32(%r13), %xmm0, %xmm0 vaesenc 48(%r13), %xmm0, %xmm0 vaesenc 64(%r13), %xmm0, %xmm0 vaesenc 80(%r13), %xmm0, %xmm0 vaesenc 96(%r13), %xmm0, %xmm0 vaesenc 112(%r13), %xmm0, %xmm0 vaesenc 128(%r13), %xmm0, %xmm0 vaesenc 144(%r13), %xmm0, %xmm0 vmovdqa (%rsp), %xmm1 vaesenclast 160(%r13), %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) movq %rbp, %r13 vpxor %xmm1, %xmm0, %xmm0 vmovdqa %xmm0, 16(%rsp) vmovdqa %xmm0, (%rsp) movq %rsp, %rsi movq %r14, %rdi movq %rbx, %rdx callq *%r12 movq %r15, %rdi vmovaps 32(%rsp), %xmm0 vmovaps %xmm0, 48(%r15) vmovdqa 16(%rsp), %xmm0 vmovdqa %xmm0, 64(%r15) .LBB6_22: movq %rbx, 80(%rdi) movq 56(%rsp), %rax .LBB6_23: movq %r13, 104(%rdi) .LBB6_24: addq $392, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp vzeroupper retq .Lfunc_end6: .size haberdashery_aes128gcm_streaming_skylake_decrypt_update, .Lfunc_end6-haberdashery_aes128gcm_streaming_skylake_decrypt_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI7_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI7_1: .zero 8 .quad -4467570830351532032 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI7_2: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_streaming_skylake_decrypt_finalize,"ax",@progbits .globl haberdashery_aes128gcm_streaming_skylake_decrypt_finalize .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_skylake_decrypt_finalize,@function haberdashery_aes128gcm_streaming_skylake_decrypt_finalize: .cfi_startproc xorl %eax, %eax cmpq $16, %rcx jne .LBB7_10 pushq %r15 .cfi_def_cfa_offset 16 pushq %r14 .cfi_def_cfa_offset 24 pushq %r13 .cfi_def_cfa_offset 32 pushq %r12 .cfi_def_cfa_offset 40 pushq %rbx .cfi_def_cfa_offset 48 subq $48, %rsp .cfi_def_cfa_offset 96 .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r13, -32 .cfi_offset %r14, -24 .cfi_offset %r15, -16 vmovdqu (%rdx), %xmm5 movq 104(%rdi), %r14 testq %r14, %r14 je .LBB7_2 vmovdqa %xmm5, (%rsp) movq %rsi, %r12 leaq 48(%rdi), %r15 vmovaps 48(%rdi), %xmm0 vxorps 64(%rdi), %xmm0, %xmm0 movq 80(%rdi), %rbx vmovaps %xmm0, 32(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 16(%rsp) leaq 16(%rsp), %rax leaq 32(%rsp), %rsi movq %rdi, %r13 movq %rax, %rdi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) movq %r13, %rdi vmovdqa (%r13), %xmm0 testq %rbx, %rbx je .LBB7_5 vmovdqa 16(%rsp), %xmm1 vpshufb .LCPI7_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm2 movq %r12, %rsi vmovdqa 176(%r12), %xmm3 vpclmulqdq $0, %xmm2, %xmm3, %xmm0 vpclmulqdq $1, %xmm2, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm3, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm2, %xmm3, %xmm2 vmovdqa (%rsp), %xmm5 jmp .LBB7_7 .LBB7_2: cmpq $0, 80(%rdi) vmovdqa (%rdi), %xmm0 je .LBB7_9 vmovdqa 176(%rsi), %xmm2 leaq 48(%rdi), %r15 vmovdqa 64(%rdi), %xmm1 vpshufb .LCPI7_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm3 vpclmulqdq $0, %xmm3, %xmm2, %xmm0 vpclmulqdq $1, %xmm3, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm3, %xmm2, %xmm2 .LBB7_7: vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI7_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm0 jmp .LBB7_8 .LBB7_5: movq %r12, %rsi vmovdqa (%rsp), %xmm5 .LBB7_8: vpxor %xmm1, %xmm1, %xmm1 vmovdqu %ymm1, (%r15) movq $0, 32(%r15) .LBB7_9: vmovdqa 176(%rsi), %xmm1 vmovq 96(%rdi), %xmm2 vmovq %r14, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI7_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rdi) vmovdqa (%rsi), %xmm1 vpxor 16(%rdi), %xmm1, %xmm1 vaesenc 16(%rsi), %xmm1, %xmm1 vaesenc 32(%rsi), %xmm1, %xmm1 vaesenc 48(%rsi), %xmm1, %xmm1 vaesenc 64(%rsi), %xmm1, %xmm1 vaesenc 80(%rsi), %xmm1, %xmm1 vaesenc 96(%rsi), %xmm1, %xmm1 vaesenc 112(%rsi), %xmm1, %xmm1 vaesenc 128(%rsi), %xmm1, %xmm1 vaesenc 144(%rsi), %xmm1, %xmm1 vaesenclast 160(%rsi), %xmm1, %xmm1 vpshufb .LCPI7_0(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpxor %xmm1, %xmm0, %xmm0 xorl %eax, %eax vptest %xmm0, %xmm0 sete %al addq $48, %rsp .cfi_def_cfa_offset 48 popq %rbx .cfi_def_cfa_offset 40 popq %r12 .cfi_def_cfa_offset 32 popq %r13 .cfi_def_cfa_offset 24 popq %r14 .cfi_def_cfa_offset 16 popq %r15 .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .LBB7_10: vzeroupper retq .Lfunc_end7: .size haberdashery_aes128gcm_streaming_skylake_decrypt_finalize, .Lfunc_end7-haberdashery_aes128gcm_streaming_skylake_decrypt_finalize .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
56,124
asm/aes256gcm_tigerlake.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI0_9: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_1: .quad 4294967297 .LCPI0_8: .quad 274877907008 .LCPI0_10: .quad -4467570830351532032 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI0_2: .long 0x00000002 .LCPI0_3: .long 0x0c0f0e0d .LCPI0_4: .long 0x00000004 .LCPI0_5: .long 0x00000008 .LCPI0_6: .long 0x00000010 .LCPI0_7: .long 0x00000020 .section .text.haberdashery_aes256gcm_tigerlake_init,"ax",@progbits .globl haberdashery_aes256gcm_tigerlake_init .p2align 4, 0x90 .type haberdashery_aes256gcm_tigerlake_init,@function haberdashery_aes256gcm_tigerlake_init: .cfi_startproc cmpq $32, %rdx jne .LBB0_2 vmovupd (%rsi), %xmm16 vmovdqu 16(%rsi), %xmm1 vpslldq $4, %xmm16, %xmm0 vpslldq $8, %xmm16, %xmm2 vpslldq $12, %xmm16, %xmm3 vpternlogq $150, %xmm2, %xmm0, %xmm3 vpbroadcastd .LCPI0_3(%rip), %xmm17 vpshufb %xmm17, %xmm1, %xmm0 vpbroadcastq .LCPI0_1(%rip), %xmm2 vaesenclast %xmm2, %xmm0, %xmm2 vpternlogq $150, %xmm3, %xmm16, %xmm2 vaesenc %xmm1, %xmm16, %xmm0 vpslldq $4, %xmm1, %xmm3 vpslldq $8, %xmm1, %xmm4 vpslldq $12, %xmm1, %xmm5 vpternlogq $150, %xmm4, %xmm3, %xmm5 vpshufd $255, %xmm2, %xmm3 vpxor %xmm15, %xmm15, %xmm15 vaesenclast %xmm15, %xmm3, %xmm3 vbroadcastss .LCPI0_2(%rip), %xmm6 vpternlogq $150, %xmm5, %xmm1, %xmm3 vbroadcastss .LCPI0_3(%rip), %xmm13 #APP vaesenc %xmm2, %xmm0, %xmm0 vpslldq $4, %xmm2, %xmm5 vpslldq $8, %xmm2, %xmm7 vpslldq $12, %xmm2, %xmm8 vpternlogq $150, %xmm5, %xmm7, %xmm8 vpshufb %xmm13, %xmm3, %xmm4 vaesenclast %xmm6, %xmm4, %xmm4 vpternlogq $150, %xmm2, %xmm8, %xmm4 #NO_APP vbroadcastss .LCPI0_4(%rip), %xmm7 #APP vaesenc %xmm3, %xmm0, %xmm0 vpslldq $4, %xmm3, %xmm6 vpslldq $8, %xmm3, %xmm8 vpslldq $12, %xmm3, %xmm9 vpternlogq $150, %xmm6, %xmm8, %xmm9 vpshufd $255, %xmm4, %xmm5 vaesenclast %xmm15, %xmm5, %xmm5 vpternlogq $150, %xmm3, %xmm9, %xmm5 #NO_APP #APP vaesenc %xmm4, %xmm0, %xmm0 vpslldq $4, %xmm4, %xmm8 vpslldq $8, %xmm4, %xmm9 vpslldq $12, %xmm4, %xmm10 vpternlogq $150, %xmm8, %xmm9, %xmm10 vpshufb %xmm13, %xmm5, %xmm6 vaesenclast %xmm7, %xmm6, %xmm6 vpternlogq $150, %xmm4, %xmm10, %xmm6 #NO_APP vmovaps %xmm4, %xmm21 #APP vaesenc %xmm5, %xmm0, %xmm0 vpslldq $4, %xmm5, %xmm8 vpslldq $8, %xmm5, %xmm9 vpslldq $12, %xmm5, %xmm10 vpternlogq $150, %xmm8, %xmm9, %xmm10 vpshufd $255, %xmm6, %xmm7 vaesenclast %xmm15, %xmm7, %xmm7 vpternlogq $150, %xmm5, %xmm10, %xmm7 #NO_APP vmovaps %xmm5, %xmm22 vbroadcastss .LCPI0_5(%rip), %xmm9 #APP vaesenc %xmm6, %xmm0, %xmm0 vpslldq $4, %xmm6, %xmm10 vpslldq $8, %xmm6, %xmm11 vpslldq $12, %xmm6, %xmm12 vpternlogq $150, %xmm10, %xmm11, %xmm12 vpshufb %xmm13, %xmm7, %xmm8 vaesenclast %xmm9, %xmm8, %xmm8 vpternlogq $150, %xmm6, %xmm12, %xmm8 #NO_APP vmovaps %xmm6, %xmm23 #APP vaesenc %xmm7, %xmm0, %xmm0 vpslldq $4, %xmm7, %xmm10 vpslldq $8, %xmm7, %xmm11 vpslldq $12, %xmm7, %xmm12 vpternlogq $150, %xmm10, %xmm11, %xmm12 vpshufd $255, %xmm8, %xmm9 vaesenclast %xmm15, %xmm9, %xmm9 vpternlogq $150, %xmm7, %xmm12, %xmm9 #NO_APP vbroadcastss .LCPI0_6(%rip), %xmm11 #APP vaesenc %xmm8, %xmm0, %xmm0 vpslldq $4, %xmm8, %xmm12 vpslldq $8, %xmm8, %xmm14 vpslldq $12, %xmm8, %xmm4 vpternlogq $150, %xmm12, %xmm14, %xmm4 vpshufb %xmm13, %xmm9, %xmm10 vaesenclast %xmm11, %xmm10, %xmm10 vpternlogq $150, %xmm8, %xmm4, %xmm10 #NO_APP vbroadcastss .LCPI0_7(%rip), %xmm4 #APP vaesenc %xmm9, %xmm0, %xmm0 vpslldq $4, %xmm9, %xmm12 vpslldq $8, %xmm9, %xmm14 vpslldq $12, %xmm9, %xmm5 vpternlogq $150, %xmm12, %xmm14, %xmm5 vpshufd $255, %xmm10, %xmm11 vaesenclast %xmm15, %xmm11, %xmm11 vpternlogq $150, %xmm9, %xmm5, %xmm11 #NO_APP #APP vaesenc %xmm10, %xmm0, %xmm0 vpslldq $4, %xmm10, %xmm5 vpslldq $8, %xmm10, %xmm14 vpslldq $12, %xmm10, %xmm6 vpternlogq $150, %xmm5, %xmm14, %xmm6 vpshufb %xmm13, %xmm11, %xmm12 vaesenclast %xmm4, %xmm12, %xmm12 vpternlogq $150, %xmm10, %xmm6, %xmm12 #NO_APP vpslldq $4, %xmm11, %xmm4 vpunpcklqdq %xmm11, %xmm15, %xmm5 vinsertps $55, %xmm11, %xmm0, %xmm6 vpternlogq $150, %xmm5, %xmm4, %xmm6 vpshufd $255, %xmm12, %xmm4 vaesenclast %xmm15, %xmm4, %xmm13 vpternlogq $150, %xmm6, %xmm11, %xmm13 vpslldq $4, %xmm12, %xmm4 vpunpcklqdq %xmm12, %xmm15, %xmm5 vinsertps $55, %xmm12, %xmm0, %xmm6 vpternlogq $150, %xmm5, %xmm4, %xmm6 vpshufb %xmm17, %xmm13, %xmm4 vpbroadcastq .LCPI0_8(%rip), %xmm5 vaesenclast %xmm5, %xmm4, %xmm14 vpternlogq $150, %xmm6, %xmm12, %xmm14 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm13, %xmm0, %xmm0 vaesenclast %xmm14, %xmm0, %xmm0 vpshufb .LCPI0_9(%rip), %xmm0, %xmm0 vpsrlq $63, %xmm0, %xmm4 vpaddq %xmm0, %xmm0, %xmm0 vpshufd $78, %xmm4, %xmm5 vpblendd $12, %xmm4, %xmm15, %xmm4 vpsllq $63, %xmm4, %xmm6 vpternlogq $30, %xmm5, %xmm0, %xmm6 vpsllq $62, %xmm4, %xmm5 vpsllq $57, %xmm4, %xmm0 vpternlogq $150, %xmm5, %xmm6, %xmm0 vpbroadcastq .LCPI0_10(%rip), %xmm4 vpclmulqdq $0, %xmm0, %xmm0, %xmm5 vpclmulqdq $16, %xmm4, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $16, %xmm4, %xmm5, %xmm6 vpclmulqdq $17, %xmm0, %xmm0, %xmm17 vpshufd $78, %xmm5, %xmm15 vpternlogq $150, %xmm6, %xmm17, %xmm15 vpclmulqdq $0, %xmm0, %xmm15, %xmm5 vpclmulqdq $16, %xmm0, %xmm15, %xmm6 vpclmulqdq $1, %xmm0, %xmm15, %xmm17 vpxorq %xmm6, %xmm17, %xmm6 vpslldq $8, %xmm6, %xmm17 vpxorq %xmm17, %xmm5, %xmm5 vpclmulqdq $16, %xmm4, %xmm5, %xmm17 vpshufd $78, %xmm5, %xmm5 vpxorq %xmm5, %xmm17, %xmm5 vpclmulqdq $16, %xmm4, %xmm5, %xmm17 vpclmulqdq $17, %xmm0, %xmm15, %xmm18 vpxorq %xmm17, %xmm18, %xmm17 vpsrldq $8, %xmm6, %xmm6 vpshufd $78, %xmm5, %xmm5 vpternlogq $150, %xmm6, %xmm17, %xmm5 vpclmulqdq $0, %xmm5, %xmm5, %xmm6 vpclmulqdq $16, %xmm4, %xmm6, %xmm17 vpshufd $78, %xmm6, %xmm6 vpxorq %xmm6, %xmm17, %xmm6 vpclmulqdq $16, %xmm4, %xmm6, %xmm17 vpclmulqdq $17, %xmm5, %xmm5, %xmm18 vpshufd $78, %xmm6, %xmm6 vpternlogq $150, %xmm17, %xmm18, %xmm6 vpclmulqdq $0, %xmm15, %xmm15, %xmm17 vpclmulqdq $16, %xmm4, %xmm17, %xmm18 vpshufd $78, %xmm17, %xmm17 vpxorq %xmm17, %xmm18, %xmm17 vpclmulqdq $16, %xmm4, %xmm17, %xmm18 vpclmulqdq $17, %xmm15, %xmm15, %xmm19 vpshufd $78, %xmm17, %xmm17 vpternlogq $150, %xmm18, %xmm19, %xmm17 vpclmulqdq $0, %xmm0, %xmm17, %xmm18 vpclmulqdq $16, %xmm0, %xmm17, %xmm19 vpclmulqdq $1, %xmm0, %xmm17, %xmm20 vpxorq %xmm19, %xmm20, %xmm19 vpslldq $8, %xmm19, %xmm20 vpxorq %xmm20, %xmm18, %xmm18 vpclmulqdq $16, %xmm4, %xmm18, %xmm20 vpshufd $78, %xmm18, %xmm18 vpxorq %xmm18, %xmm20, %xmm18 vpclmulqdq $16, %xmm4, %xmm18, %xmm4 vpclmulqdq $17, %xmm0, %xmm17, %xmm20 vpxorq %xmm4, %xmm20, %xmm4 vpsrldq $8, %xmm19, %xmm19 vpshufd $78, %xmm18, %xmm18 vpternlogq $150, %xmm19, %xmm4, %xmm18 vmovdqa64 %xmm16, (%rdi) vmovdqa %xmm1, 16(%rdi) vmovdqa %xmm2, 32(%rdi) vmovdqa %xmm3, 48(%rdi) vmovaps %xmm21, 64(%rdi) vmovaps %xmm22, 80(%rdi) vmovaps %xmm23, 96(%rdi) vmovaps %xmm7, 112(%rdi) vmovaps %xmm8, 128(%rdi) vmovaps %xmm9, 144(%rdi) vmovaps %xmm10, 160(%rdi) vmovaps %xmm11, 176(%rdi) vmovaps %xmm12, 192(%rdi) vmovdqa %xmm13, 208(%rdi) vmovdqa %xmm14, 224(%rdi) vmovdqa %xmm0, 240(%rdi) vmovdqa %xmm15, 256(%rdi) vmovdqa %xmm5, 272(%rdi) vmovdqa64 %xmm17, 288(%rdi) vmovdqa64 %xmm18, 304(%rdi) vmovdqa %xmm6, 320(%rdi) .LBB0_2: xorl %eax, %eax cmpq $32, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes256gcm_tigerlake_init, .Lfunc_end0-haberdashery_aes256gcm_tigerlake_init .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI1_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_1: .long 1 .long 0 .long 0 .long 0 .LCPI1_2: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_4: .long 2 .long 0 .long 0 .long 0 .LCPI1_5: .long 3 .long 0 .long 0 .long 0 .LCPI1_6: .long 4 .long 0 .long 0 .long 0 .LCPI1_7: .long 5 .long 0 .long 0 .long 0 .LCPI1_8: .long 6 .long 0 .long 0 .long 0 .LCPI1_9: .long 7 .long 0 .long 0 .long 0 .LCPI1_10: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_11: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI1_3: .quad -4467570830351532032 .section .rodata,"a",@progbits .LCPI1_12: .byte 1 .byte 0 .section .text.haberdashery_aes256gcm_tigerlake_encrypt,"ax",@progbits .globl haberdashery_aes256gcm_tigerlake_encrypt .p2align 4, 0x90 .type haberdashery_aes256gcm_tigerlake_encrypt,@function haberdashery_aes256gcm_tigerlake_encrypt: .cfi_startproc pushq %rbx .cfi_def_cfa_offset 16 subq $96, %rsp .cfi_def_cfa_offset 112 .cfi_offset %rbx, -16 movq 112(%rsp), %r10 xorl %eax, %eax cmpq 128(%rsp), %r10 jne .LBB1_22 cmpq $16, 144(%rsp) setne %r11b movabsq $2305843009213693950, %rbx cmpq %rbx, %r8 seta %bl orb %r11b, %bl jne .LBB1_22 movq %r10, %r11 shrq $5, %r11 cmpq $2147483647, %r11 setae %r11b cmpq $12, %rdx setne %dl orb %r11b, %dl jne .LBB1_22 vmovd (%rsi), %xmm0 vpinsrd $1, 4(%rsi), %xmm0, %xmm0 vpinsrd $2, 8(%rsi), %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm25 vpxor %xmm1, %xmm1, %xmm1 testq %r8, %r8 je .LBB1_18 cmpq $96, %r8 jb .LBB1_5 vmovdqa 240(%rdi), %xmm0 vmovdqa 256(%rdi), %xmm2 vmovdqa 272(%rdi), %xmm3 vmovdqa 288(%rdi), %xmm4 vmovdqa 304(%rdi), %xmm5 vmovdqa 320(%rdi), %xmm6 vmovdqa .LCPI1_2(%rip), %xmm7 vpbroadcastq .LCPI1_3(%rip), %xmm8 movq %r8, %rdx .p2align 4, 0x90 .LBB1_17: vmovdqu (%rcx), %xmm9 vmovdqu 16(%rcx), %xmm10 vmovdqu 32(%rcx), %xmm11 vmovdqu 48(%rcx), %xmm12 vmovdqu 64(%rcx), %xmm13 vmovdqu 80(%rcx), %xmm14 addq $96, %rcx addq $-96, %rdx vpshufb %xmm7, %xmm9, %xmm9 vpxor %xmm1, %xmm9, %xmm1 vpshufb %xmm7, %xmm10, %xmm9 vpshufb %xmm7, %xmm11, %xmm10 vpshufb %xmm7, %xmm12, %xmm11 vpshufb %xmm7, %xmm13, %xmm12 vpshufb %xmm7, %xmm14, %xmm13 vpclmulqdq $0, %xmm13, %xmm0, %xmm14 vpclmulqdq $1, %xmm13, %xmm0, %xmm15 vpclmulqdq $16, %xmm13, %xmm0, %xmm17 vpxorq %xmm15, %xmm17, %xmm15 vpclmulqdq $17, %xmm13, %xmm0, %xmm13 vpclmulqdq $0, %xmm12, %xmm2, %xmm17 vpclmulqdq $1, %xmm12, %xmm2, %xmm18 vpclmulqdq $16, %xmm12, %xmm2, %xmm19 vpternlogq $150, %xmm18, %xmm15, %xmm19 vpclmulqdq $17, %xmm12, %xmm2, %xmm12 vpclmulqdq $0, %xmm11, %xmm3, %xmm15 vpternlogq $150, %xmm14, %xmm17, %xmm15 vpclmulqdq $1, %xmm11, %xmm3, %xmm14 vpclmulqdq $16, %xmm11, %xmm3, %xmm17 vpternlogq $150, %xmm14, %xmm19, %xmm17 vpclmulqdq $17, %xmm11, %xmm3, %xmm11 vpternlogq $150, %xmm13, %xmm12, %xmm11 vpclmulqdq $0, %xmm10, %xmm4, %xmm12 vpclmulqdq $1, %xmm10, %xmm4, %xmm13 vpclmulqdq $16, %xmm10, %xmm4, %xmm14 vpternlogq $150, %xmm13, %xmm17, %xmm14 vpclmulqdq $17, %xmm10, %xmm4, %xmm10 vpclmulqdq $0, %xmm9, %xmm5, %xmm13 vpternlogq $150, %xmm12, %xmm15, %xmm13 vpclmulqdq $1, %xmm9, %xmm5, %xmm12 vpclmulqdq $16, %xmm9, %xmm5, %xmm15 vpternlogq $150, %xmm12, %xmm14, %xmm15 vpclmulqdq $17, %xmm9, %xmm5, %xmm9 vpternlogq $150, %xmm10, %xmm11, %xmm9 vpclmulqdq $0, %xmm1, %xmm6, %xmm10 vpclmulqdq $1, %xmm1, %xmm6, %xmm11 vpclmulqdq $16, %xmm1, %xmm6, %xmm12 vpternlogq $150, %xmm11, %xmm15, %xmm12 vpclmulqdq $17, %xmm1, %xmm6, %xmm1 vpslldq $8, %xmm12, %xmm11 vpternlogq $150, %xmm10, %xmm13, %xmm11 vpsrldq $8, %xmm12, %xmm10 vpclmulqdq $16, %xmm8, %xmm11, %xmm12 vpshufd $78, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $16, %xmm8, %xmm11, %xmm12 vpternlogq $150, %xmm1, %xmm9, %xmm12 vpshufd $78, %xmm11, %xmm1 vpternlogq $150, %xmm10, %xmm12, %xmm1 cmpq $95, %rdx ja .LBB1_17 cmpq $16, %rdx jae .LBB1_11 jmp .LBB1_7 .LBB1_18: testq %r10, %r10 jne .LBB1_25 jmp .LBB1_19 .LBB1_5: movq %r8, %rdx cmpq $16, %rdx jb .LBB1_7 .LBB1_11: vmovdqa 240(%rdi), %xmm0 leaq -16(%rdx), %rsi testb $16, %sil je .LBB1_12 cmpq $16, %rsi jae .LBB1_14 .LBB1_8: testq %rsi, %rsi je .LBB1_20 .LBB1_9: movl $-1, %edx bzhil %esi, %edx, %edx kmovd %edx, %k1 vmovdqu8 (%rcx), %xmm0 {%k1} {z} testq %r10, %r10 je .LBB1_10 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB1_22 vmovdqa 240(%rdi), %xmm2 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm0, %xmm2, %xmm1 vpclmulqdq $1, %xmm0, %xmm2, %xmm3 vpclmulqdq $16, %xmm0, %xmm2, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm2, %xmm0 vpslldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI1_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm2, %xmm0, %xmm1 jmp .LBB1_25 .LBB1_12: vmovdqu (%rcx), %xmm2 addq $16, %rcx vpshufb .LCPI1_2(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpbroadcastq .LCPI1_3(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm4 vpshufd $78, %xmm2, %xmm1 vpternlogq $150, %xmm3, %xmm4, %xmm1 movq %rsi, %rdx cmpq $16, %rsi jb .LBB1_8 .LBB1_14: vmovdqa .LCPI1_2(%rip), %xmm2 vpbroadcastq .LCPI1_3(%rip), %xmm3 .p2align 4, 0x90 .LBB1_15: vmovdqu (%rcx), %xmm4 vmovdqu 16(%rcx), %xmm5 vpshufb %xmm2, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpternlogq $150, %xmm1, %xmm6, %xmm7 vpshufd $78, %xmm4, %xmm1 addq $32, %rcx addq $-32, %rdx vpshufb %xmm2, %xmm5, %xmm4 vpternlogq $150, %xmm1, %xmm7, %xmm4 vpclmulqdq $0, %xmm4, %xmm0, %xmm1 vpclmulqdq $1, %xmm4, %xmm0, %xmm5 vpclmulqdq $16, %xmm4, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm4, %xmm0, %xmm4 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm1, %xmm1 vpsrldq $8, %xmm5, %xmm5 vpclmulqdq $16, %xmm3, %xmm1, %xmm6 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm6, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm6 vpxor %xmm4, %xmm6, %xmm4 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm5, %xmm4, %xmm1 cmpq $15, %rdx ja .LBB1_15 .LBB1_7: movq %rdx, %rsi testq %rsi, %rsi jne .LBB1_9 .LBB1_20: testq %r10, %r10 je .LBB1_19 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB1_22 .LBB1_25: movq 120(%rsp), %rdx vpshufb .LCPI1_0(%rip), %xmm25, %xmm0 vpaddd .LCPI1_1(%rip), %xmm0, %xmm2 cmpq $96, %r10 jb .LBB1_26 vmovdqa64 .LCPI1_2(%rip), %xmm24 vpshufb %xmm24, %xmm2, %xmm2 vpaddd .LCPI1_4(%rip), %xmm0, %xmm4 vpshufb %xmm24, %xmm4, %xmm5 vpaddd .LCPI1_5(%rip), %xmm0, %xmm4 vpshufb %xmm24, %xmm4, %xmm6 vpaddd .LCPI1_6(%rip), %xmm0, %xmm4 vpshufb %xmm24, %xmm4, %xmm7 vpaddd .LCPI1_7(%rip), %xmm0, %xmm4 vpshufb %xmm24, %xmm4, %xmm8 vpaddd .LCPI1_8(%rip), %xmm0, %xmm4 vpshufb %xmm24, %xmm4, %xmm9 vmovdqa (%rdi), %xmm4 vmovaps 16(%rdi), %xmm11 vmovdqa 32(%rdi), %xmm3 vmovaps 48(%rdi), %xmm10 vpxor %xmm2, %xmm4, %xmm2 vpxor %xmm5, %xmm4, %xmm5 vpxor %xmm6, %xmm4, %xmm6 vpxor %xmm7, %xmm4, %xmm7 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm4, %xmm9, %xmm9 #APP vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 vaesenc %xmm11, %xmm8, %xmm8 vaesenc %xmm11, %xmm9, %xmm9 #NO_APP #APP vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm9, %xmm9 #NO_APP vmovaps %xmm10, %xmm16 #APP vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm10, %xmm6, %xmm6 vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm10, %xmm8, %xmm8 vaesenc %xmm10, %xmm9, %xmm9 #NO_APP vmovdqa 64(%rdi), %xmm10 vmovdqa64 %xmm10, %xmm18 #APP vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm10, %xmm6, %xmm6 vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm10, %xmm8, %xmm8 vaesenc %xmm10, %xmm9, %xmm9 #NO_APP vmovdqa 80(%rdi), %xmm10 vmovdqa64 %xmm10, %xmm22 #APP vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm10, %xmm6, %xmm6 vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm10, %xmm8, %xmm8 vaesenc %xmm10, %xmm9, %xmm9 #NO_APP vmovdqa 96(%rdi), %xmm15 #APP vaesenc %xmm15, %xmm2, %xmm2 vaesenc %xmm15, %xmm5, %xmm5 vaesenc %xmm15, %xmm6, %xmm6 vaesenc %xmm15, %xmm7, %xmm7 vaesenc %xmm15, %xmm8, %xmm8 vaesenc %xmm15, %xmm9, %xmm9 #NO_APP vmovaps 112(%rdi), %xmm12 vmovaps %xmm12, -80(%rsp) #APP vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm12, %xmm6, %xmm6 vaesenc %xmm12, %xmm7, %xmm7 vaesenc %xmm12, %xmm8, %xmm8 vaesenc %xmm12, %xmm9, %xmm9 #NO_APP vmovdqa 128(%rdi), %xmm12 #APP vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm12, %xmm6, %xmm6 vaesenc %xmm12, %xmm7, %xmm7 vaesenc %xmm12, %xmm8, %xmm8 vaesenc %xmm12, %xmm9, %xmm9 #NO_APP vmovaps 144(%rdi), %xmm10 vmovaps %xmm10, -96(%rsp) #APP vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm10, %xmm6, %xmm6 vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm10, %xmm8, %xmm8 vaesenc %xmm10, %xmm9, %xmm9 #NO_APP vmovdqa 160(%rdi), %xmm10 #APP vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm10, %xmm6, %xmm6 vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm10, %xmm8, %xmm8 vaesenc %xmm10, %xmm9, %xmm9 #NO_APP vmovaps 176(%rdi), %xmm13 vmovaps %xmm13, -112(%rsp) #APP vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm13, %xmm5, %xmm5 vaesenc %xmm13, %xmm6, %xmm6 vaesenc %xmm13, %xmm7, %xmm7 vaesenc %xmm13, %xmm8, %xmm8 vaesenc %xmm13, %xmm9, %xmm9 #NO_APP vmovdqa 192(%rdi), %xmm13 #APP vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm13, %xmm5, %xmm5 vaesenc %xmm13, %xmm6, %xmm6 vaesenc %xmm13, %xmm7, %xmm7 vaesenc %xmm13, %xmm8, %xmm8 vaesenc %xmm13, %xmm9, %xmm9 #NO_APP vmovapd 208(%rdi), %xmm14 vmovapd %xmm14, %xmm23 #APP vaesenc %xmm14, %xmm2, %xmm2 vaesenc %xmm14, %xmm5, %xmm5 vaesenc %xmm14, %xmm6, %xmm6 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovdqa 224(%rdi), %xmm14 #APP vaesenclast %xmm14, %xmm2, %xmm2 vaesenclast %xmm14, %xmm5, %xmm5 vaesenclast %xmm14, %xmm6, %xmm6 vaesenclast %xmm14, %xmm7, %xmm7 vaesenclast %xmm14, %xmm8, %xmm8 vaesenclast %xmm14, %xmm9, %xmm9 #NO_APP vpxorq (%r9), %xmm2, %xmm17 vpxorq 16(%r9), %xmm5, %xmm26 vpxorq 32(%r9), %xmm6, %xmm27 vpxorq 48(%r9), %xmm7, %xmm28 vpxorq 64(%r9), %xmm8, %xmm29 vpxor 80(%r9), %xmm9, %xmm5 leaq 96(%r9), %r9 leaq 96(%rdx), %rcx vpaddd .LCPI1_9(%rip), %xmm0, %xmm2 vmovdqu64 %xmm17, (%rdx) vmovdqu64 %xmm26, 16(%rdx) vmovdqu64 %xmm27, 32(%rdx) vmovdqu64 %xmm28, 48(%rdx) leaq -96(%r10), %rax vmovdqu64 %xmm29, 64(%rdx) vmovdqu %xmm5, 80(%rdx) cmpq $96, %rax jb .LBB1_37 vmovdqa64 %xmm25, -128(%rsp) vmovaps 240(%rdi), %xmm0 vmovaps %xmm0, 80(%rsp) vmovaps 256(%rdi), %xmm0 vmovaps %xmm0, 64(%rsp) vmovaps 272(%rdi), %xmm0 vmovaps %xmm0, 48(%rsp) vmovaps 288(%rdi), %xmm0 vmovaps %xmm0, 32(%rsp) vmovaps 304(%rdi), %xmm0 vmovaps %xmm0, 16(%rsp) vmovdqa 320(%rdi), %xmm0 vmovdqa %xmm0, (%rsp) vmovdqa %xmm3, -16(%rsp) vmovaps %xmm16, -32(%rsp) vmovdqa64 %xmm18, -48(%rsp) vmovdqa %xmm12, -64(%rsp) vmovdqa64 %xmm15, %xmm19 vmovaps -80(%rsp), %xmm16 vmovdqa64 -96(%rsp), %xmm18 vmovdqa64 %xmm10, %xmm20 vmovaps -112(%rsp), %xmm25 vmovdqa64 %xmm13, %xmm21 vmovdqa64 %xmm14, %xmm31 .p2align 4, 0x90 .LBB1_35: vpshufb %xmm24, %xmm2, %xmm0 vpaddd .LCPI1_1(%rip), %xmm2, %xmm6 vpshufb %xmm24, %xmm6, %xmm6 vpaddd .LCPI1_4(%rip), %xmm2, %xmm7 vpshufb %xmm24, %xmm7, %xmm7 vpaddd .LCPI1_5(%rip), %xmm2, %xmm8 vpshufb %xmm24, %xmm8, %xmm8 vpaddd .LCPI1_6(%rip), %xmm2, %xmm9 vpshufb %xmm24, %xmm9, %xmm9 vpaddd .LCPI1_7(%rip), %xmm2, %xmm10 vpshufb %xmm24, %xmm10, %xmm30 vpshufb %xmm24, %xmm5, %xmm10 vpxor %xmm0, %xmm4, %xmm13 vpxor %xmm6, %xmm4, %xmm14 vpxor %xmm7, %xmm4, %xmm15 vpxor %xmm4, %xmm8, %xmm0 vpxor %xmm4, %xmm9, %xmm5 vpxorq %xmm30, %xmm4, %xmm6 #APP vaesenc %xmm11, %xmm13, %xmm13 vaesenc %xmm11, %xmm14, %xmm14 vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 #NO_APP vpxor %xmm8, %xmm8, %xmm8 vpxor %xmm9, %xmm9, %xmm9 vpxor %xmm7, %xmm7, %xmm7 vmovaps %xmm11, %xmm30 vmovaps 80(%rsp), %xmm3 vmovaps -16(%rsp), %xmm12 #APP vaesenc %xmm12, %xmm13, %xmm13 vaesenc %xmm12, %xmm14, %xmm14 vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm12, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm10, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $0, %xmm3, %xmm10, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm10, %xmm11 vpxor %xmm7, %xmm11, %xmm7 vpclmulqdq $1, %xmm3, %xmm10, %xmm11 vpxor %xmm11, %xmm9, %xmm9 #NO_APP vpshufb %xmm24, %xmm29, %xmm10 vmovaps -32(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovaps 64(%rsp), %xmm3 vmovaps -48(%rsp), %xmm12 #APP vaesenc %xmm12, %xmm13, %xmm13 vaesenc %xmm12, %xmm14, %xmm14 vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm12, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm10, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $0, %xmm3, %xmm10, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm10, %xmm11 vpxor %xmm7, %xmm11, %xmm7 vpclmulqdq $1, %xmm3, %xmm10, %xmm11 vpxor %xmm11, %xmm9, %xmm9 #NO_APP vpshufb %xmm24, %xmm28, %xmm10 vmovdqa64 %xmm22, %xmm11 #APP vaesenc %xmm11, %xmm13, %xmm13 vaesenc %xmm11, %xmm14, %xmm14 vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 #NO_APP vmovaps 48(%rsp), %xmm3 vmovdqa64 %xmm19, %xmm12 #APP vaesenc %xmm12, %xmm13, %xmm13 vaesenc %xmm12, %xmm14, %xmm14 vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm12, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm10, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $0, %xmm3, %xmm10, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm10, %xmm11 vpxor %xmm7, %xmm11, %xmm7 vpclmulqdq $1, %xmm3, %xmm10, %xmm11 vpxor %xmm11, %xmm9, %xmm9 #NO_APP vpshufb %xmm24, %xmm27, %xmm10 vmovaps %xmm16, %xmm3 #APP vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovaps 32(%rsp), %xmm12 vmovaps -64(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm12, %xmm10, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $0, %xmm12, %xmm10, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $17, %xmm12, %xmm10, %xmm11 vpxor %xmm7, %xmm11, %xmm7 vpclmulqdq $1, %xmm12, %xmm10, %xmm11 vpxor %xmm11, %xmm9, %xmm9 #NO_APP vpshufb %xmm24, %xmm26, %xmm10 vmovdqa64 %xmm18, %xmm3 #APP vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovdqa64 %xmm20, %xmm12 vmovaps 16(%rsp), %xmm3 #APP vaesenc %xmm12, %xmm13, %xmm13 vaesenc %xmm12, %xmm14, %xmm14 vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm12, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm10, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $0, %xmm3, %xmm10, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm10, %xmm11 vpxor %xmm7, %xmm11, %xmm7 vpclmulqdq $1, %xmm3, %xmm10, %xmm11 vpxor %xmm11, %xmm9, %xmm9 #NO_APP vmovaps %xmm30, %xmm11 vpshufb %xmm24, %xmm17, %xmm10 vpxor %xmm1, %xmm10, %xmm1 vmovaps %xmm25, %xmm3 #APP vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovdqa64 %xmm21, %xmm12 vmovdqa (%rsp), %xmm3 #APP vaesenc %xmm12, %xmm13, %xmm13 vaesenc %xmm12, %xmm14, %xmm14 vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm12, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm1, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $0, %xmm3, %xmm1, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm1, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $1, %xmm3, %xmm1, %xmm10 vpxor %xmm10, %xmm9, %xmm9 #NO_APP vpxor %xmm3, %xmm3, %xmm3 vpunpcklqdq %xmm9, %xmm3, %xmm1 vpxor %xmm1, %xmm8, %xmm8 vpunpckhqdq %xmm3, %xmm9, %xmm1 vmovapd %xmm23, %xmm3 #APP vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovdqa64 %xmm31, %xmm3 #APP vaesenclast %xmm3, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 vaesenclast %xmm3, %xmm15, %xmm15 vaesenclast %xmm3, %xmm0, %xmm0 vaesenclast %xmm3, %xmm5, %xmm5 vaesenclast %xmm3, %xmm6, %xmm6 #NO_APP vpxorq (%r9), %xmm13, %xmm17 vpxorq 16(%r9), %xmm14, %xmm26 vpxorq 32(%r9), %xmm15, %xmm27 vpxorq 48(%r9), %xmm0, %xmm28 vpxorq 64(%r9), %xmm5, %xmm29 vpxor 80(%r9), %xmm6, %xmm5 vpxor %xmm1, %xmm7, %xmm1 vpbroadcastq .LCPI1_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm8, %xmm0 vpshufd $78, %xmm8, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm0, %xmm6 vpshufd $78, %xmm0, %xmm0 vpternlogq $150, %xmm6, %xmm0, %xmm1 addq $96, %r9 vmovdqu64 %xmm17, (%rcx) vmovdqu64 %xmm26, 16(%rcx) vmovdqu64 %xmm27, 32(%rcx) vmovdqu64 %xmm28, 48(%rcx) vmovdqu64 %xmm29, 64(%rcx) vmovdqu %xmm5, 80(%rcx) addq $96, %rcx addq $-96, %rax vpaddd .LCPI1_8(%rip), %xmm2, %xmm2 cmpq $95, %rax ja .LBB1_35 vmovdqa64 -128(%rsp), %xmm25 .LBB1_37: vpshufb %xmm24, %xmm17, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpshufb %xmm24, %xmm26, %xmm1 vpshufb %xmm24, %xmm27, %xmm4 vpshufb %xmm24, %xmm28, %xmm6 vpshufb %xmm24, %xmm29, %xmm7 vpshufb %xmm24, %xmm5, %xmm3 vmovdqa 240(%rdi), %xmm5 vmovdqa 256(%rdi), %xmm8 vmovdqa 272(%rdi), %xmm9 vmovdqa 288(%rdi), %xmm10 vmovdqa 304(%rdi), %xmm11 vmovdqa 320(%rdi), %xmm12 vpclmulqdq $0, %xmm3, %xmm5, %xmm13 vpclmulqdq $1, %xmm3, %xmm5, %xmm14 vpclmulqdq $16, %xmm3, %xmm5, %xmm15 vpxor %xmm14, %xmm15, %xmm14 vpclmulqdq $17, %xmm3, %xmm5, %xmm3 vpclmulqdq $0, %xmm7, %xmm8, %xmm5 vpclmulqdq $1, %xmm7, %xmm8, %xmm15 vpclmulqdq $16, %xmm7, %xmm8, %xmm17 vpternlogq $150, %xmm15, %xmm14, %xmm17 vpclmulqdq $17, %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm6, %xmm9, %xmm8 vpternlogq $150, %xmm13, %xmm5, %xmm8 vpclmulqdq $1, %xmm6, %xmm9, %xmm5 vpclmulqdq $16, %xmm6, %xmm9, %xmm13 vpternlogq $150, %xmm5, %xmm17, %xmm13 vpclmulqdq $17, %xmm6, %xmm9, %xmm5 vpternlogq $150, %xmm3, %xmm7, %xmm5 vpclmulqdq $0, %xmm4, %xmm10, %xmm3 vpclmulqdq $1, %xmm4, %xmm10, %xmm6 vpclmulqdq $16, %xmm4, %xmm10, %xmm7 vpternlogq $150, %xmm6, %xmm13, %xmm7 vpclmulqdq $17, %xmm4, %xmm10, %xmm4 vpclmulqdq $0, %xmm1, %xmm11, %xmm6 vpternlogq $150, %xmm3, %xmm8, %xmm6 vpclmulqdq $1, %xmm1, %xmm11, %xmm3 vpclmulqdq $16, %xmm1, %xmm11, %xmm8 vpternlogq $150, %xmm3, %xmm7, %xmm8 vpclmulqdq $17, %xmm1, %xmm11, %xmm1 vpternlogq $150, %xmm4, %xmm5, %xmm1 vpclmulqdq $0, %xmm0, %xmm12, %xmm3 vpclmulqdq $1, %xmm0, %xmm12, %xmm4 vpclmulqdq $16, %xmm0, %xmm12, %xmm5 vpternlogq $150, %xmm4, %xmm8, %xmm5 vpclmulqdq $17, %xmm0, %xmm12, %xmm0 vpslldq $8, %xmm5, %xmm4 vpternlogq $150, %xmm3, %xmm6, %xmm4 vpsrldq $8, %xmm5, %xmm3 vpbroadcastq .LCPI1_3(%rip), %xmm5 vpclmulqdq $16, %xmm5, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm5, %xmm4, %xmm5 vpternlogq $150, %xmm0, %xmm1, %xmm5 vpshufd $78, %xmm4, %xmm1 vpternlogq $150, %xmm3, %xmm5, %xmm1 movq %rcx, %rdx cmpq $16, %rax jae .LBB1_38 .LBB1_28: movq %rdx, %rcx movq %r9, %rsi jmp .LBB1_29 .LBB1_26: movq %r10, %rax cmpq $16, %rax jb .LBB1_28 .LBB1_38: vmovdqa (%rdi), %xmm0 vmovdqa 16(%rdi), %xmm3 vmovdqa 32(%rdi), %xmm4 vmovdqa 48(%rdi), %xmm5 vmovdqa 64(%rdi), %xmm6 vmovdqa 80(%rdi), %xmm7 vmovdqa 96(%rdi), %xmm8 vmovdqa 112(%rdi), %xmm9 vmovdqa 128(%rdi), %xmm10 vmovdqa 144(%rdi), %xmm11 vmovdqa 160(%rdi), %xmm12 vmovdqa 176(%rdi), %xmm13 vmovdqa 192(%rdi), %xmm14 vmovdqa 208(%rdi), %xmm15 vmovdqa64 224(%rdi), %xmm17 vmovdqa64 240(%rdi), %xmm18 vmovdqa64 .LCPI1_2(%rip), %xmm19 vpmovsxbq .LCPI1_12(%rip), %xmm20 vpbroadcastq .LCPI1_3(%rip), %xmm21 .p2align 4, 0x90 .LBB1_39: leaq 16(%r9), %rsi leaq 16(%rdx), %rcx addq $-16, %rax vpshufb %xmm19, %xmm2, %xmm22 vpxorq %xmm22, %xmm0, %xmm22 vaesenc %xmm3, %xmm22, %xmm22 vaesenc %xmm4, %xmm22, %xmm22 vaesenc %xmm5, %xmm22, %xmm22 vaesenc %xmm6, %xmm22, %xmm22 vaesenc %xmm7, %xmm22, %xmm22 vaesenc %xmm8, %xmm22, %xmm22 vaesenc %xmm9, %xmm22, %xmm22 vaesenc %xmm10, %xmm22, %xmm22 vaesenc %xmm11, %xmm22, %xmm22 vaesenc %xmm12, %xmm22, %xmm22 vaesenc %xmm13, %xmm22, %xmm22 vaesenc %xmm14, %xmm22, %xmm22 vaesenc %xmm15, %xmm22, %xmm22 vaesenclast %xmm17, %xmm22, %xmm22 vpaddd %xmm20, %xmm2, %xmm2 vpxorq (%r9), %xmm22, %xmm22 vmovdqu64 %xmm22, (%rdx) vpshufb %xmm19, %xmm22, %xmm22 vpxorq %xmm22, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm18, %xmm22 vpclmulqdq $1, %xmm1, %xmm18, %xmm23 vpclmulqdq $16, %xmm1, %xmm18, %xmm24 vpxorq %xmm23, %xmm24, %xmm23 vpclmulqdq $17, %xmm1, %xmm18, %xmm1 vpslldq $8, %xmm23, %xmm24 vpxorq %xmm24, %xmm22, %xmm22 vpsrldq $8, %xmm23, %xmm23 vpclmulqdq $16, %xmm21, %xmm22, %xmm24 vpshufd $78, %xmm22, %xmm22 vpxorq %xmm22, %xmm24, %xmm22 vpclmulqdq $16, %xmm21, %xmm22, %xmm24 vpxorq %xmm1, %xmm24, %xmm24 vpshufd $78, %xmm22, %xmm1 vpternlogq $150, %xmm23, %xmm24, %xmm1 movq %rcx, %rdx movq %rsi, %r9 cmpq $15, %rax ja .LBB1_39 .LBB1_29: testq %rax, %rax je .LBB1_19 movl $-1, %edx bzhil %eax, %edx, %eax kmovd %eax, %k1 vmovdqu8 (%rsi), %xmm0 {%k1} {z} vpshufb .LCPI1_2(%rip), %xmm2, %xmm2 vpxor (%rdi), %xmm2, %xmm2 vaesenc 16(%rdi), %xmm2, %xmm2 vaesenc 32(%rdi), %xmm2, %xmm2 vaesenc 48(%rdi), %xmm2, %xmm2 vaesenc 64(%rdi), %xmm2, %xmm2 vaesenc 80(%rdi), %xmm2, %xmm2 vaesenc 96(%rdi), %xmm2, %xmm2 vaesenc 112(%rdi), %xmm2, %xmm2 vaesenc 128(%rdi), %xmm2, %xmm2 vaesenc 144(%rdi), %xmm2, %xmm2 vaesenc 160(%rdi), %xmm2, %xmm2 vaesenc 176(%rdi), %xmm2, %xmm2 vaesenc 192(%rdi), %xmm2, %xmm2 vaesenc 208(%rdi), %xmm2, %xmm2 vaesenclast 224(%rdi), %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vmovdqu8 %xmm0, (%rcx) {%k1} testq %r10, %r10 je .LBB1_10 vmovdqu8 %xmm0, %xmm0 {%k1} {z} vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vmovdqa 240(%rdi), %xmm2 jmp .LBB1_32 .LBB1_10: vmovdqa 240(%rdi), %xmm2 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 .LBB1_32: vpxor %xmm0, %xmm1, %xmm3 vpclmulqdq $0, %xmm3, %xmm2, %xmm0 vpclmulqdq $1, %xmm3, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm3, %xmm2, %xmm2 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm2 vpbroadcastq .LCPI1_3(%rip), %xmm1 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm1 vpternlogq $150, %xmm3, %xmm2, %xmm1 .LBB1_19: movq 136(%rsp), %rax vmovdqa 240(%rdi), %xmm0 vmovq %r8, %xmm2 vmovq %r10, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI1_3(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpxorq (%rdi), %xmm25, %xmm4 vaesenc 16(%rdi), %xmm4, %xmm4 vaesenc 32(%rdi), %xmm4, %xmm4 vaesenc 48(%rdi), %xmm4, %xmm4 vaesenc 64(%rdi), %xmm4, %xmm4 vaesenc 80(%rdi), %xmm4, %xmm4 vaesenc 96(%rdi), %xmm4, %xmm4 vaesenc 112(%rdi), %xmm4, %xmm4 vaesenc 128(%rdi), %xmm4, %xmm4 vaesenc 144(%rdi), %xmm4, %xmm4 vaesenc 160(%rdi), %xmm4, %xmm4 vaesenc 176(%rdi), %xmm4, %xmm4 vaesenc 192(%rdi), %xmm4, %xmm4 vaesenc 208(%rdi), %xmm4, %xmm4 vaesenclast 224(%rdi), %xmm4, %xmm4 vpxor %xmm0, %xmm2, %xmm0 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpshufb .LCPI1_10(%rip), %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpshufb .LCPI1_11(%rip), %xmm1, %xmm1 vpternlogq $150, %xmm0, %xmm4, %xmm1 vmovdqu %xmm1, (%rax) movl $1, %eax .LBB1_22: addq $96, %rsp .cfi_def_cfa_offset 16 popq %rbx .cfi_def_cfa_offset 8 retq .Lfunc_end1: .size haberdashery_aes256gcm_tigerlake_encrypt, .Lfunc_end1-haberdashery_aes256gcm_tigerlake_encrypt .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_1: .long 1 .long 0 .long 0 .long 0 .LCPI2_2: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_4: .long 2 .long 0 .long 0 .long 0 .LCPI2_5: .long 3 .long 0 .long 0 .long 0 .LCPI2_6: .long 4 .long 0 .long 0 .long 0 .LCPI2_7: .long 5 .long 0 .long 0 .long 0 .LCPI2_8: .long 6 .long 0 .long 0 .long 0 .LCPI2_9: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI2_10: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI2_3: .quad -4467570830351532032 .section .rodata,"a",@progbits .LCPI2_11: .byte 1 .byte 0 .section .text.haberdashery_aes256gcm_tigerlake_decrypt,"ax",@progbits .globl haberdashery_aes256gcm_tigerlake_decrypt .p2align 4, 0x90 .type haberdashery_aes256gcm_tigerlake_decrypt,@function haberdashery_aes256gcm_tigerlake_decrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r14 .cfi_def_cfa_offset 24 pushq %rbx .cfi_def_cfa_offset 32 subq $112, %rsp .cfi_def_cfa_offset 144 .cfi_offset %rbx, -32 .cfi_offset %r14, -24 .cfi_offset %rbp, -16 movq 144(%rsp), %r10 xorl %eax, %eax cmpq 176(%rsp), %r10 jne .LBB2_5 cmpq $16, 160(%rsp) setne %r11b movabsq $2305843009213693950, %rbx cmpq %rbx, %r8 seta %bl movq %r10, %r14 shrq $5, %r14 cmpq $2147483647, %r14 setae %bpl orb %r11b, %bl orb %bpl, %bl cmpq $12, %rdx setne %dl orb %bl, %dl jne .LBB2_5 vmovd (%rsi), %xmm0 vpinsrd $1, 4(%rsi), %xmm0, %xmm0 vpinsrd $2, 8(%rsi), %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm25 vpxor %xmm1, %xmm1, %xmm1 testq %r8, %r8 je .LBB2_3 cmpq $96, %r8 jb .LBB2_7 vmovdqa 240(%rdi), %xmm0 vmovdqa 256(%rdi), %xmm2 vmovdqa 272(%rdi), %xmm3 vmovdqa 288(%rdi), %xmm4 vmovdqa 304(%rdi), %xmm5 vmovdqa 320(%rdi), %xmm6 vmovdqa .LCPI2_2(%rip), %xmm7 vpbroadcastq .LCPI2_3(%rip), %xmm8 movq %r8, %rdx .p2align 4, 0x90 .LBB2_19: vmovdqu (%rcx), %xmm9 vmovdqu 16(%rcx), %xmm10 vmovdqu 32(%rcx), %xmm11 vmovdqu 48(%rcx), %xmm12 vmovdqu 64(%rcx), %xmm13 vmovdqu 80(%rcx), %xmm14 addq $96, %rcx addq $-96, %rdx vpshufb %xmm7, %xmm9, %xmm9 vpxor %xmm1, %xmm9, %xmm1 vpshufb %xmm7, %xmm10, %xmm9 vpshufb %xmm7, %xmm11, %xmm10 vpshufb %xmm7, %xmm12, %xmm11 vpshufb %xmm7, %xmm13, %xmm12 vpshufb %xmm7, %xmm14, %xmm13 vpclmulqdq $0, %xmm13, %xmm0, %xmm14 vpclmulqdq $1, %xmm13, %xmm0, %xmm15 vpclmulqdq $16, %xmm13, %xmm0, %xmm17 vpxorq %xmm15, %xmm17, %xmm15 vpclmulqdq $17, %xmm13, %xmm0, %xmm13 vpclmulqdq $0, %xmm12, %xmm2, %xmm17 vpclmulqdq $1, %xmm12, %xmm2, %xmm18 vpclmulqdq $16, %xmm12, %xmm2, %xmm19 vpternlogq $150, %xmm18, %xmm15, %xmm19 vpclmulqdq $17, %xmm12, %xmm2, %xmm12 vpclmulqdq $0, %xmm11, %xmm3, %xmm15 vpternlogq $150, %xmm14, %xmm17, %xmm15 vpclmulqdq $1, %xmm11, %xmm3, %xmm14 vpclmulqdq $16, %xmm11, %xmm3, %xmm17 vpternlogq $150, %xmm14, %xmm19, %xmm17 vpclmulqdq $17, %xmm11, %xmm3, %xmm11 vpternlogq $150, %xmm13, %xmm12, %xmm11 vpclmulqdq $0, %xmm10, %xmm4, %xmm12 vpclmulqdq $1, %xmm10, %xmm4, %xmm13 vpclmulqdq $16, %xmm10, %xmm4, %xmm14 vpternlogq $150, %xmm13, %xmm17, %xmm14 vpclmulqdq $17, %xmm10, %xmm4, %xmm10 vpclmulqdq $0, %xmm9, %xmm5, %xmm13 vpternlogq $150, %xmm12, %xmm15, %xmm13 vpclmulqdq $1, %xmm9, %xmm5, %xmm12 vpclmulqdq $16, %xmm9, %xmm5, %xmm15 vpternlogq $150, %xmm12, %xmm14, %xmm15 vpclmulqdq $17, %xmm9, %xmm5, %xmm9 vpternlogq $150, %xmm10, %xmm11, %xmm9 vpclmulqdq $0, %xmm1, %xmm6, %xmm10 vpclmulqdq $1, %xmm1, %xmm6, %xmm11 vpclmulqdq $16, %xmm1, %xmm6, %xmm12 vpternlogq $150, %xmm11, %xmm15, %xmm12 vpclmulqdq $17, %xmm1, %xmm6, %xmm1 vpslldq $8, %xmm12, %xmm11 vpternlogq $150, %xmm10, %xmm13, %xmm11 vpsrldq $8, %xmm12, %xmm10 vpclmulqdq $16, %xmm8, %xmm11, %xmm12 vpshufd $78, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $16, %xmm8, %xmm11, %xmm12 vpternlogq $150, %xmm1, %xmm9, %xmm12 vpshufd $78, %xmm11, %xmm1 vpternlogq $150, %xmm10, %xmm12, %xmm1 cmpq $95, %rdx ja .LBB2_19 cmpq $16, %rdx jae .LBB2_13 jmp .LBB2_9 .LBB2_7: movq %r8, %rdx cmpq $16, %rdx jb .LBB2_9 .LBB2_13: vmovdqa 240(%rdi), %xmm0 leaq -16(%rdx), %rsi testb $16, %sil je .LBB2_14 cmpq $16, %rsi jae .LBB2_16 .LBB2_10: testq %rsi, %rsi je .LBB2_3 .LBB2_11: movl $-1, %edx bzhil %esi, %edx, %edx kmovd %edx, %k1 vmovdqu8 (%rcx), %xmm0 {%k1} {z} testq %r10, %r10 je .LBB2_12 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB2_5 vmovdqa 240(%rdi), %xmm2 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm0, %xmm2, %xmm1 vpclmulqdq $1, %xmm0, %xmm2, %xmm3 vpclmulqdq $16, %xmm0, %xmm2, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm2, %xmm0 vpslldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI2_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm2, %xmm0, %xmm1 jmp .LBB2_22 .LBB2_14: vmovdqu (%rcx), %xmm2 addq $16, %rcx vpshufb .LCPI2_2(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpbroadcastq .LCPI2_3(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm4 vpshufd $78, %xmm2, %xmm1 vpternlogq $150, %xmm3, %xmm4, %xmm1 movq %rsi, %rdx cmpq $16, %rsi jb .LBB2_10 .LBB2_16: vmovdqa .LCPI2_2(%rip), %xmm2 vpbroadcastq .LCPI2_3(%rip), %xmm3 .p2align 4, 0x90 .LBB2_17: vmovdqu (%rcx), %xmm4 vmovdqu 16(%rcx), %xmm5 vpshufb %xmm2, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpternlogq $150, %xmm1, %xmm6, %xmm7 vpshufd $78, %xmm4, %xmm1 addq $32, %rcx addq $-32, %rdx vpshufb %xmm2, %xmm5, %xmm4 vpternlogq $150, %xmm1, %xmm7, %xmm4 vpclmulqdq $0, %xmm4, %xmm0, %xmm1 vpclmulqdq $1, %xmm4, %xmm0, %xmm5 vpclmulqdq $16, %xmm4, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm4, %xmm0, %xmm4 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm1, %xmm1 vpsrldq $8, %xmm5, %xmm5 vpclmulqdq $16, %xmm3, %xmm1, %xmm6 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm6, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm6 vpxor %xmm4, %xmm6, %xmm4 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm5, %xmm4, %xmm1 cmpq $15, %rdx ja .LBB2_17 .LBB2_9: movq %rdx, %rsi testq %rsi, %rsi jne .LBB2_11 .LBB2_3: testq %r10, %r10 je .LBB2_29 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB2_5 .LBB2_22: movq 168(%rsp), %rax vpshufb .LCPI2_0(%rip), %xmm25, %xmm0 vpaddd .LCPI2_1(%rip), %xmm0, %xmm2 cmpq $96, %r10 jb .LBB2_23 vmovdqa64 %xmm25, -128(%rsp) vmovdqa (%rdi), %xmm3 vmovaps 16(%rdi), %xmm0 vmovaps %xmm0, 96(%rsp) vmovaps 32(%rdi), %xmm0 vmovaps %xmm0, 80(%rsp) vmovaps 48(%rdi), %xmm0 vmovaps %xmm0, 64(%rsp) vmovaps 64(%rdi), %xmm0 vmovaps %xmm0, 48(%rsp) vmovaps 80(%rdi), %xmm0 vmovaps %xmm0, 32(%rsp) vmovaps 96(%rdi), %xmm0 vmovaps %xmm0, 16(%rsp) vmovaps 112(%rdi), %xmm0 vmovaps %xmm0, (%rsp) vmovaps 128(%rdi), %xmm0 vmovaps %xmm0, -16(%rsp) vmovaps 144(%rdi), %xmm0 vmovaps %xmm0, -32(%rsp) vmovaps 160(%rdi), %xmm0 vmovaps %xmm0, -48(%rsp) vmovaps 176(%rdi), %xmm0 vmovaps %xmm0, -64(%rsp) vmovaps 192(%rdi), %xmm0 vmovaps %xmm0, -80(%rsp) vmovaps 208(%rdi), %xmm0 vmovaps %xmm0, -96(%rsp) vmovdqa 224(%rdi), %xmm0 vmovdqa %xmm0, -112(%rsp) vmovdqa64 240(%rdi), %xmm20 vmovdqa64 256(%rdi), %xmm21 vmovdqa64 .LCPI2_2(%rip), %xmm17 vpxord %xmm24, %xmm24, %xmm24 vpbroadcastq .LCPI2_3(%rip), %xmm25 movq %r10, %rcx vmovdqa64 272(%rdi), %xmm22 vmovapd 288(%rdi), %xmm23 vmovapd 304(%rdi), %xmm18 vmovdqa64 320(%rdi), %xmm19 .p2align 4, 0x90 .LBB2_31: vmovdqu64 (%r9), %xmm26 vmovdqu64 16(%r9), %xmm27 vmovdqu64 32(%r9), %xmm28 vmovdqu64 48(%r9), %xmm29 vmovdqu64 64(%r9), %xmm30 vmovdqu64 80(%r9), %xmm31 vpshufb %xmm17, %xmm2, %xmm0 vpaddd .LCPI2_1(%rip), %xmm2, %xmm4 vpshufb %xmm17, %xmm4, %xmm4 vpaddd .LCPI2_4(%rip), %xmm2, %xmm5 vpshufb %xmm17, %xmm5, %xmm5 vpaddd .LCPI2_5(%rip), %xmm2, %xmm6 vpshufb %xmm17, %xmm6, %xmm6 vpaddd .LCPI2_6(%rip), %xmm2, %xmm11 vpshufb %xmm17, %xmm11, %xmm15 vpaddd .LCPI2_7(%rip), %xmm2, %xmm11 vpshufb %xmm17, %xmm11, %xmm16 vpshufb %xmm17, %xmm31, %xmm7 vpxor %xmm0, %xmm3, %xmm11 vpxor %xmm4, %xmm3, %xmm12 vpxor %xmm5, %xmm3, %xmm13 vpxor %xmm6, %xmm3, %xmm14 vpxor %xmm3, %xmm15, %xmm15 vpxorq %xmm16, %xmm3, %xmm0 vmovaps 96(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm0, %xmm0 #NO_APP vpxor %xmm5, %xmm5, %xmm5 vpxor %xmm6, %xmm6, %xmm6 vxorps %xmm4, %xmm4, %xmm4 vmovaps 80(%rsp), %xmm9 vmovdqa64 %xmm20, %xmm10 #APP vaesenc %xmm9, %xmm11, %xmm11 vaesenc %xmm9, %xmm12, %xmm12 vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm0, %xmm0 vpclmulqdq $16, %xmm10, %xmm7, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm10, %xmm7, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $17, %xmm10, %xmm7, %xmm8 vpxor %xmm4, %xmm8, %xmm4 vpclmulqdq $1, %xmm10, %xmm7, %xmm8 vpxor %xmm6, %xmm8, %xmm6 #NO_APP vpshufb %xmm17, %xmm30, %xmm7 vmovaps 64(%rsp), %xmm8 #APP vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm0, %xmm0 #NO_APP vmovaps 48(%rsp), %xmm9 vmovdqa64 %xmm21, %xmm10 #APP vaesenc %xmm9, %xmm11, %xmm11 vaesenc %xmm9, %xmm12, %xmm12 vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm0, %xmm0 vpclmulqdq $16, %xmm10, %xmm7, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm10, %xmm7, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $17, %xmm10, %xmm7, %xmm8 vpxor %xmm4, %xmm8, %xmm4 vpclmulqdq $1, %xmm10, %xmm7, %xmm8 vpxor %xmm6, %xmm8, %xmm6 #NO_APP vpshufb %xmm17, %xmm29, %xmm7 vmovaps 32(%rsp), %xmm8 #APP vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm0, %xmm0 #NO_APP vmovaps 16(%rsp), %xmm9 vmovdqa64 %xmm22, %xmm10 #APP vaesenc %xmm9, %xmm11, %xmm11 vaesenc %xmm9, %xmm12, %xmm12 vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm0, %xmm0 vpclmulqdq $16, %xmm10, %xmm7, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm10, %xmm7, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $17, %xmm10, %xmm7, %xmm8 vpxor %xmm4, %xmm8, %xmm4 vpclmulqdq $1, %xmm10, %xmm7, %xmm8 vpxor %xmm6, %xmm8, %xmm6 #NO_APP vpshufb %xmm17, %xmm28, %xmm7 vmovaps (%rsp), %xmm8 #APP vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm0, %xmm0 #NO_APP vmovaps -16(%rsp), %xmm9 vmovapd %xmm23, %xmm10 #APP vaesenc %xmm9, %xmm11, %xmm11 vaesenc %xmm9, %xmm12, %xmm12 vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm0, %xmm0 vpclmulqdq $16, %xmm10, %xmm7, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm10, %xmm7, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $17, %xmm10, %xmm7, %xmm8 vpxor %xmm4, %xmm8, %xmm4 vpclmulqdq $1, %xmm10, %xmm7, %xmm8 vpxor %xmm6, %xmm8, %xmm6 #NO_APP vpshufb %xmm17, %xmm27, %xmm7 vmovaps -32(%rsp), %xmm8 #APP vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm0, %xmm0 #NO_APP vmovaps -48(%rsp), %xmm9 vmovapd %xmm18, %xmm10 #APP vaesenc %xmm9, %xmm11, %xmm11 vaesenc %xmm9, %xmm12, %xmm12 vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm0, %xmm0 vpclmulqdq $16, %xmm10, %xmm7, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm10, %xmm7, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $17, %xmm10, %xmm7, %xmm8 vpxor %xmm4, %xmm8, %xmm4 vpclmulqdq $1, %xmm10, %xmm7, %xmm8 vpxor %xmm6, %xmm8, %xmm6 #NO_APP vpshufb %xmm17, %xmm26, %xmm7 vpxor %xmm7, %xmm1, %xmm1 vmovaps -64(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm0, %xmm0 #NO_APP vmovaps -80(%rsp), %xmm8 vmovdqa64 %xmm19, %xmm9 #APP vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm0, %xmm0 vpclmulqdq $16, %xmm9, %xmm1, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $0, %xmm9, %xmm1, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $17, %xmm9, %xmm1, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $1, %xmm9, %xmm1, %xmm7 vpxor %xmm7, %xmm6, %xmm6 #NO_APP vpunpcklqdq %xmm6, %xmm24, %xmm1 vpxor %xmm1, %xmm5, %xmm5 vpunpckhqdq %xmm24, %xmm6, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vmovaps -96(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm0, %xmm0 #NO_APP vmovaps -112(%rsp), %xmm4 #APP vaesenclast %xmm4, %xmm11, %xmm11 vaesenclast %xmm4, %xmm12, %xmm12 vaesenclast %xmm4, %xmm13, %xmm13 vaesenclast %xmm4, %xmm14, %xmm14 vaesenclast %xmm4, %xmm15, %xmm15 vaesenclast %xmm4, %xmm0, %xmm0 #NO_APP vpxorq %xmm26, %xmm11, %xmm4 vpxorq %xmm27, %xmm12, %xmm6 vpxorq %xmm28, %xmm13, %xmm7 vpxorq %xmm29, %xmm14, %xmm8 vpxorq %xmm30, %xmm15, %xmm11 vpxorq %xmm31, %xmm0, %xmm0 vpclmulqdq $16, %xmm25, %xmm5, %xmm12 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm12, %xmm5 vmovdqu %xmm4, (%rax) vmovdqu %xmm6, 16(%rax) vmovdqu %xmm7, 32(%rax) vmovdqu %xmm8, 48(%rax) vmovdqu %xmm11, 64(%rax) vmovdqu %xmm0, 80(%rax) vpclmulqdq $16, %xmm25, %xmm5, %xmm0 vpshufd $78, %xmm5, %xmm4 vpternlogq $150, %xmm0, %xmm4, %xmm1 addq $96, %r9 addq $96, %rax addq $-96, %rcx vpaddd .LCPI2_8(%rip), %xmm2, %xmm2 cmpq $95, %rcx ja .LBB2_31 vmovdqa64 -128(%rsp), %xmm25 cmpq $16, %rcx jae .LBB2_33 .LBB2_25: movq %rax, %rdx jmp .LBB2_26 .LBB2_23: movq %r10, %rcx cmpq $16, %rcx jb .LBB2_25 .LBB2_33: vmovdqa 240(%rdi), %xmm0 vmovdqa (%rdi), %xmm3 vmovdqa 16(%rdi), %xmm4 vmovdqa 32(%rdi), %xmm5 vmovdqa 48(%rdi), %xmm6 vmovdqa 64(%rdi), %xmm7 vmovdqa 80(%rdi), %xmm8 vmovdqa 96(%rdi), %xmm9 vmovdqa 112(%rdi), %xmm10 vmovdqa 128(%rdi), %xmm11 vmovdqa 144(%rdi), %xmm12 vmovdqa 160(%rdi), %xmm13 vmovdqa 176(%rdi), %xmm14 vmovdqa 192(%rdi), %xmm15 vmovdqa64 208(%rdi), %xmm17 vmovdqa64 224(%rdi), %xmm18 vmovdqa64 .LCPI2_2(%rip), %xmm19 vpbroadcastq .LCPI2_3(%rip), %xmm20 vpmovsxbq .LCPI2_11(%rip), %xmm21 .p2align 4, 0x90 .LBB2_34: leaq 16(%rax), %rdx addq $-16, %rcx vmovdqu64 (%r9), %xmm16 addq $16, %r9 vpshufb %xmm19, %xmm16, %xmm22 vpxorq %xmm22, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm22 vpclmulqdq $1, %xmm1, %xmm0, %xmm23 vpclmulqdq $16, %xmm1, %xmm0, %xmm24 vpxorq %xmm23, %xmm24, %xmm23 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm23, %xmm24 vpxorq %xmm24, %xmm22, %xmm22 vpsrldq $8, %xmm23, %xmm23 vpclmulqdq $16, %xmm20, %xmm22, %xmm24 vpshufd $78, %xmm22, %xmm22 vpxorq %xmm22, %xmm24, %xmm22 vpclmulqdq $16, %xmm20, %xmm22, %xmm24 vpxorq %xmm1, %xmm24, %xmm24 vpshufd $78, %xmm22, %xmm1 vpternlogq $150, %xmm23, %xmm24, %xmm1 vpshufb %xmm19, %xmm2, %xmm22 vpxorq %xmm22, %xmm3, %xmm22 vaesenc %xmm4, %xmm22, %xmm22 vaesenc %xmm5, %xmm22, %xmm22 vaesenc %xmm6, %xmm22, %xmm22 vaesenc %xmm7, %xmm22, %xmm22 vaesenc %xmm8, %xmm22, %xmm22 vaesenc %xmm9, %xmm22, %xmm22 vaesenc %xmm10, %xmm22, %xmm22 vaesenc %xmm11, %xmm22, %xmm22 vaesenc %xmm12, %xmm22, %xmm22 vaesenc %xmm13, %xmm22, %xmm22 vaesenc %xmm14, %xmm22, %xmm22 vaesenc %xmm15, %xmm22, %xmm22 vaesenc %xmm17, %xmm22, %xmm22 vaesenclast %xmm18, %xmm22, %xmm22 vpaddd %xmm21, %xmm2, %xmm2 vpxorq %xmm16, %xmm22, %xmm16 vmovdqu64 %xmm16, (%rax) movq %rdx, %rax cmpq $15, %rcx ja .LBB2_34 .LBB2_26: testq %rcx, %rcx je .LBB2_29 movl $-1, %eax bzhil %ecx, %eax, %eax kmovd %eax, %k1 vmovdqu8 (%r9), %xmm0 {%k1} {z} vmovdqa .LCPI2_2(%rip), %xmm3 vpshufb %xmm3, %xmm2, %xmm2 vpxor (%rdi), %xmm2, %xmm2 vaesenc 16(%rdi), %xmm2, %xmm2 vaesenc 32(%rdi), %xmm2, %xmm2 vaesenc 48(%rdi), %xmm2, %xmm2 vaesenc 64(%rdi), %xmm2, %xmm2 vaesenc 80(%rdi), %xmm2, %xmm2 vaesenc 96(%rdi), %xmm2, %xmm2 vaesenc 112(%rdi), %xmm2, %xmm2 vaesenc 128(%rdi), %xmm2, %xmm2 vaesenc 144(%rdi), %xmm2, %xmm2 vaesenc 160(%rdi), %xmm2, %xmm2 vaesenc 176(%rdi), %xmm2, %xmm2 vaesenc 192(%rdi), %xmm2, %xmm2 vaesenc 208(%rdi), %xmm2, %xmm2 vaesenclast 224(%rdi), %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm2 vmovdqu8 %xmm2, (%rdx) {%k1} vpshufb %xmm3, %xmm0, %xmm0 vmovdqa 240(%rdi), %xmm3 jmp .LBB2_28 .LBB2_12: vmovdqa 240(%rdi), %xmm3 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 .LBB2_28: vpxor %xmm0, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm3, %xmm0 vpclmulqdq $1, %xmm1, %xmm3, %xmm2 vpclmulqdq $16, %xmm1, %xmm3, %xmm4 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $17, %xmm1, %xmm3, %xmm1 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsrldq $8, %xmm2, %xmm2 vpbroadcastq .LCPI2_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm0, %xmm4 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm0, %xmm3 vpxor %xmm1, %xmm3, %xmm3 vpshufd $78, %xmm0, %xmm1 vpternlogq $150, %xmm2, %xmm3, %xmm1 .LBB2_29: movq 152(%rsp), %rax vmovdqa 240(%rdi), %xmm0 vmovq %r8, %xmm2 vmovq %r10, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI2_3(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpxorq (%rdi), %xmm25, %xmm4 vaesenc 16(%rdi), %xmm4, %xmm4 vaesenc 32(%rdi), %xmm4, %xmm4 vaesenc 48(%rdi), %xmm4, %xmm4 vaesenc 64(%rdi), %xmm4, %xmm4 vaesenc 80(%rdi), %xmm4, %xmm4 vaesenc 96(%rdi), %xmm4, %xmm4 vaesenc 112(%rdi), %xmm4, %xmm4 vaesenc 128(%rdi), %xmm4, %xmm4 vaesenc 144(%rdi), %xmm4, %xmm4 vaesenc 160(%rdi), %xmm4, %xmm4 vaesenc 176(%rdi), %xmm4, %xmm4 vaesenc 192(%rdi), %xmm4, %xmm4 vaesenc 208(%rdi), %xmm4, %xmm4 vaesenclast 224(%rdi), %xmm4, %xmm4 vpshufb .LCPI2_9(%rip), %xmm1, %xmm1 vpxor %xmm0, %xmm2, %xmm0 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpshufb .LCPI2_10(%rip), %xmm3, %xmm2 vpternlogq $150, %xmm0, %xmm1, %xmm2 vpternlogq $150, (%rax), %xmm4, %xmm2 xorl %eax, %eax vptest %xmm2, %xmm2 sete %al .LBB2_5: addq $112, %rsp .cfi_def_cfa_offset 32 popq %rbx .cfi_def_cfa_offset 24 popq %r14 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end2: .size haberdashery_aes256gcm_tigerlake_decrypt, .Lfunc_end2-haberdashery_aes256gcm_tigerlake_decrypt .cfi_endproc .section .text.haberdashery_aes256gcm_tigerlake_is_supported,"ax",@progbits .globl haberdashery_aes256gcm_tigerlake_is_supported .p2align 4, 0x90 .type haberdashery_aes256gcm_tigerlake_is_supported,@function haberdashery_aes256gcm_tigerlake_is_supported: .cfi_startproc xorl %esi, %esi movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rdi cpuid xchgq %rbx, %rdi #NO_APP movl %ecx, %edi movl %edx, %r8d notl %r8d notl %edi xorl %ecx, %ecx movl $7, %eax #APP movq %rbx, %r9 cpuid xchgq %rbx, %r9 #NO_APP andl $1993871875, %edi andl $125829120, %r8d orl %edi, %r8d jne .LBB3_3 notl %r9d andl $-240189143, %r9d notl %ecx andl $415260490, %ecx orl %r9d, %ecx jne .LBB3_3 shrl $8, %edx andl $1, %edx movl %edx, %esi .LBB3_3: movl %esi, %eax retq .Lfunc_end3: .size haberdashery_aes256gcm_tigerlake_is_supported, .Lfunc_end3-haberdashery_aes256gcm_tigerlake_is_supported .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
45,895
asm/sivmac_skylake.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .long 1 .long 0 .long 0 .long 0 .LCPI0_1: .long 2 .long 0 .long 0 .long 0 .LCPI0_2: .long 3 .long 0 .long 0 .long 0 .LCPI0_3: .long 4 .long 0 .long 0 .long 0 .LCPI0_4: .long 5 .long 0 .long 0 .long 0 .LCPI0_5: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI0_6: .quad 4294967297 .quad 4294967297 .LCPI0_7: .quad 8589934594 .quad 8589934594 .LCPI0_9: .quad 17179869188 .quad 17179869188 .LCPI0_10: .quad 34359738376 .quad 34359738376 .LCPI0_11: .quad 68719476752 .quad 68719476752 .LCPI0_12: .quad 137438953504 .quad 137438953504 .LCPI0_13: .quad 274877907008 .quad 274877907008 .LCPI0_14: .zero 8 .quad -4467570830351532032 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI0_8: .long 0x0c0f0e0d .LCPI0_15: .long 2 .LCPI0_16: .long 4 .LCPI0_17: .long 8 .LCPI0_18: .long 16 .LCPI0_19: .long 32 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_20: .quad -4467570830351532032 .section .text.haberdashery_sivmac_skylake_init,"ax",@progbits .globl haberdashery_sivmac_skylake_init .p2align 4, 0x90 .type haberdashery_sivmac_skylake_init,@function haberdashery_sivmac_skylake_init: .cfi_startproc cmpq $32, %rdx jne .LBB0_2 vmovdqu (%rsi), %xmm2 vpxor .LCPI0_0(%rip), %xmm2, %xmm8 vpxor .LCPI0_1(%rip), %xmm2, %xmm5 vpxor .LCPI0_2(%rip), %xmm2, %xmm6 vpxor .LCPI0_3(%rip), %xmm2, %xmm4 vpxor .LCPI0_4(%rip), %xmm2, %xmm7 vmovdqu 16(%rsi), %xmm1 vpslldq $4, %xmm2, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpslldq $12, %xmm2, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpshufb .LCPI0_5(%rip), %xmm1, %xmm3 vaesenclast .LCPI0_6(%rip), %xmm3, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 #APP vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm8, %xmm8 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm6, %xmm6 vaesenc %xmm1, %xmm4, %xmm4 vaesenc %xmm1, %xmm7, %xmm7 #NO_APP vpslldq $4, %xmm1, %xmm3 vpslldq $8, %xmm1, %xmm9 vpxor %xmm3, %xmm9, %xmm3 vpslldq $12, %xmm1, %xmm9 vpxor %xmm3, %xmm9, %xmm3 vpshufd $255, %xmm0, %xmm9 vpxor %xmm13, %xmm13, %xmm13 vaesenclast %xmm13, %xmm9, %xmm9 vpxor %xmm1, %xmm3, %xmm1 vpxor %xmm1, %xmm9, %xmm1 vbroadcastss .LCPI0_15(%rip), %xmm9 vbroadcastss .LCPI0_8(%rip), %xmm14 #APP vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm8, %xmm8 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm7, %xmm7 vpslldq $4, %xmm0, %xmm3 vpslldq $8, %xmm0, %xmm10 vpxor %xmm3, %xmm10, %xmm3 vpslldq $12, %xmm0, %xmm10 vpxor %xmm3, %xmm10, %xmm3 vpxor %xmm0, %xmm3, %xmm3 vpshufb %xmm14, %xmm1, %xmm11 vaesenclast %xmm9, %xmm11, %xmm11 vpxor %xmm3, %xmm11, %xmm11 #NO_APP #APP vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm8, %xmm8 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm6, %xmm6 vaesenc %xmm1, %xmm4, %xmm4 vaesenc %xmm1, %xmm7, %xmm7 vpslldq $4, %xmm1, %xmm0 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpslldq $12, %xmm1, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpshufd $255, %xmm11, %xmm12 vaesenclast %xmm13, %xmm12, %xmm12 vpxor %xmm0, %xmm12, %xmm12 #NO_APP vpbroadcastd .LCPI0_16(%rip), %xmm10 #APP vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm8, %xmm8 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm7, %xmm7 vpslldq $4, %xmm11, %xmm0 vpslldq $8, %xmm11, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm11, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm11, %xmm0 vpshufb %xmm14, %xmm12, %xmm3 vaesenclast %xmm10, %xmm3, %xmm3 vpxor %xmm0, %xmm3, %xmm3 #NO_APP #APP vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm8, %xmm8 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm12, %xmm6, %xmm6 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm7, %xmm7 vpslldq $4, %xmm12, %xmm0 vpslldq $8, %xmm12, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm12, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm0 vpshufd $255, %xmm3, %xmm15 vaesenclast %xmm13, %xmm15, %xmm15 vpxor %xmm0, %xmm15, %xmm15 #NO_APP vpbroadcastd .LCPI0_17(%rip), %xmm11 #APP vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm4, %xmm4 vaesenc %xmm3, %xmm7, %xmm7 vpslldq $4, %xmm3, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm3, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm3, %xmm0, %xmm0 vpshufb %xmm14, %xmm15, %xmm12 vaesenclast %xmm11, %xmm12, %xmm12 vpxor %xmm0, %xmm12, %xmm12 #NO_APP #APP vaesenc %xmm15, %xmm2, %xmm2 vaesenc %xmm15, %xmm8, %xmm8 vaesenc %xmm15, %xmm5, %xmm5 vaesenc %xmm15, %xmm6, %xmm6 vaesenc %xmm15, %xmm4, %xmm4 vaesenc %xmm15, %xmm7, %xmm7 vpslldq $4, %xmm15, %xmm0 vpslldq $8, %xmm15, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm15, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm15, %xmm0 vpshufd $255, %xmm12, %xmm3 vaesenclast %xmm13, %xmm3, %xmm3 vpxor %xmm0, %xmm3, %xmm3 #NO_APP vbroadcastss .LCPI0_18(%rip), %xmm9 #APP vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm8, %xmm8 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm12, %xmm6, %xmm6 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm7, %xmm7 vpslldq $4, %xmm12, %xmm0 vpslldq $8, %xmm12, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm12, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm0 vpshufb %xmm14, %xmm3, %xmm15 vaesenclast %xmm9, %xmm15, %xmm15 vpxor %xmm0, %xmm15, %xmm15 #NO_APP #APP vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm4, %xmm4 vaesenc %xmm3, %xmm7, %xmm7 vpslldq $4, %xmm3, %xmm0 vpslldq $8, %xmm3, %xmm12 vpxor %xmm0, %xmm12, %xmm0 vpslldq $12, %xmm3, %xmm12 vpxor %xmm0, %xmm12, %xmm0 vpxor %xmm3, %xmm0, %xmm0 vpshufd $255, %xmm15, %xmm1 vaesenclast %xmm13, %xmm1, %xmm1 vpxor %xmm0, %xmm1, %xmm1 #NO_APP vbroadcastss .LCPI0_19(%rip), %xmm9 #APP vaesenc %xmm15, %xmm2, %xmm2 vaesenc %xmm15, %xmm8, %xmm8 vaesenc %xmm15, %xmm5, %xmm5 vaesenc %xmm15, %xmm6, %xmm6 vaesenc %xmm15, %xmm4, %xmm4 vaesenc %xmm15, %xmm7, %xmm7 vpslldq $4, %xmm15, %xmm3 vpslldq $8, %xmm15, %xmm12 vpxor %xmm3, %xmm12, %xmm3 vpslldq $12, %xmm15, %xmm12 vpxor %xmm3, %xmm12, %xmm3 vpxor %xmm3, %xmm15, %xmm3 vpshufb %xmm14, %xmm1, %xmm0 vaesenclast %xmm9, %xmm0, %xmm0 vpxor %xmm3, %xmm0, %xmm0 #NO_APP vpslldq $4, %xmm1, %xmm3 vpunpcklqdq %xmm1, %xmm13, %xmm12 vpxor %xmm3, %xmm12, %xmm3 vinsertps $55, %xmm1, %xmm0, %xmm12 vpxor %xmm3, %xmm12, %xmm3 vshufps $255, %xmm0, %xmm0, %xmm12 vaesenclast %xmm13, %xmm12, %xmm12 vpxor %xmm1, %xmm3, %xmm3 vpxor %xmm3, %xmm12, %xmm15 vpslldq $4, %xmm0, %xmm3 vpunpcklqdq %xmm0, %xmm13, %xmm12 vpxor %xmm3, %xmm12, %xmm3 vinsertps $55, %xmm0, %xmm0, %xmm12 vpxor %xmm3, %xmm12, %xmm3 vpbroadcastd .LCPI0_8(%rip), %xmm14 vpshufb %xmm14, %xmm15, %xmm12 vaesenclast .LCPI0_13(%rip), %xmm12, %xmm12 vpxor %xmm0, %xmm3, %xmm3 vpxor %xmm3, %xmm12, %xmm3 #APP vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm8, %xmm8 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm6, %xmm6 vaesenc %xmm1, %xmm4, %xmm4 vaesenc %xmm1, %xmm7, %xmm7 #NO_APP #APP vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm8, %xmm8 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm7, %xmm7 #NO_APP #APP vaesenc %xmm15, %xmm2, %xmm2 vaesenc %xmm15, %xmm8, %xmm8 vaesenc %xmm15, %xmm5, %xmm5 vaesenc %xmm15, %xmm6, %xmm6 vaesenc %xmm15, %xmm4, %xmm4 vaesenc %xmm15, %xmm7, %xmm7 #NO_APP #APP vaesenclast %xmm3, %xmm2, %xmm2 vaesenclast %xmm3, %xmm8, %xmm8 vaesenclast %xmm3, %xmm5, %xmm5 vaesenclast %xmm3, %xmm6, %xmm6 vaesenclast %xmm3, %xmm4, %xmm4 vaesenclast %xmm3, %xmm7, %xmm7 #NO_APP vpunpcklqdq %xmm6, %xmm5, %xmm3 vpunpcklqdq %xmm7, %xmm4, %xmm6 vpunpcklqdq %xmm5, %xmm13, %xmm0 vinsertps $55, %xmm5, %xmm0, %xmm1 vxorps %xmm1, %xmm0, %xmm0 vmovdqa %xmm3, -24(%rsp) vpslldq $4, %xmm3, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vmovdqa %xmm6, %xmm5 vpshufb %xmm14, %xmm6, %xmm1 vaesenclast .LCPI0_6(%rip), %xmm1, %xmm1 vpxor %xmm3, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm6 vpslldq $4, %xmm5, %xmm0 vmovdqa %xmm5, %xmm9 vmovdqa %xmm5, -40(%rsp) vpxor %xmm5, %xmm5, %xmm5 vpunpcklqdq %xmm4, %xmm5, %xmm1 vinsertps $55, %xmm4, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpshufd $255, %xmm6, %xmm1 vaesenclast %xmm5, %xmm1, %xmm1 vpxor %xmm7, %xmm7, %xmm7 vpxor %xmm0, %xmm9, %xmm0 vpxor %xmm0, %xmm1, %xmm5 vpslldq $4, %xmm6, %xmm0 vpslldq $8, %xmm6, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm6, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpshufb %xmm14, %xmm5, %xmm1 vaesenclast .LCPI0_7(%rip), %xmm1, %xmm1 vpxor %xmm6, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm4 vpslldq $4, %xmm5, %xmm0 vpslldq $8, %xmm5, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm5, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpshufd $255, %xmm4, %xmm1 vaesenclast %xmm7, %xmm1, %xmm1 vpxor %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm9 vpslldq $4, %xmm4, %xmm0 vpslldq $8, %xmm4, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm4, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpshufb %xmm14, %xmm9, %xmm1 vaesenclast %xmm10, %xmm1, %xmm1 vpxor %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm10 vpslldq $4, %xmm9, %xmm0 vpslldq $8, %xmm9, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm9, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpshufd $255, %xmm10, %xmm1 vaesenclast %xmm7, %xmm1, %xmm1 vpxor %xmm0, %xmm9, %xmm0 vpxor %xmm0, %xmm1, %xmm15 vpslldq $4, %xmm10, %xmm0 vpslldq $8, %xmm10, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm10, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpshufb %xmm14, %xmm15, %xmm1 vaesenclast %xmm11, %xmm1, %xmm1 vpxor %xmm0, %xmm10, %xmm0 vpxor %xmm0, %xmm1, %xmm11 vpslldq $4, %xmm15, %xmm0 vpslldq $8, %xmm15, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm15, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpshufd $255, %xmm11, %xmm1 vaesenclast %xmm7, %xmm1, %xmm1 vpxor %xmm0, %xmm15, %xmm0 vpxor %xmm0, %xmm1, %xmm1 vpslldq $4, %xmm11, %xmm0 vpslldq $8, %xmm11, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpslldq $12, %xmm11, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpshufb %xmm14, %xmm1, %xmm3 vmovdqa %xmm14, %xmm12 vaesenclast .LCPI0_11(%rip), %xmm3, %xmm3 vpxor %xmm0, %xmm11, %xmm0 vpxor %xmm0, %xmm3, %xmm3 vpslldq $4, %xmm1, %xmm0 vpslldq $8, %xmm1, %xmm14 vpxor %xmm0, %xmm14, %xmm0 vpslldq $12, %xmm1, %xmm14 vpxor %xmm0, %xmm14, %xmm0 vpshufd $255, %xmm3, %xmm14 vaesenclast %xmm7, %xmm14, %xmm14 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm0 vpslldq $4, %xmm3, %xmm14 vpslldq $8, %xmm3, %xmm13 vpxor %xmm13, %xmm14, %xmm13 vpslldq $12, %xmm3, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpshufb %xmm12, %xmm0, %xmm14 vaesenclast .LCPI0_12(%rip), %xmm14, %xmm14 vpxor %xmm3, %xmm13, %xmm13 vpxor %xmm13, %xmm14, %xmm13 vpslldq $4, %xmm0, %xmm14 vpslldq $8, %xmm0, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpslldq $12, %xmm0, %xmm14 vpxor %xmm14, %xmm12, %xmm12 vpshufd $255, %xmm13, %xmm14 vaesenclast %xmm7, %xmm14, %xmm14 vpxor %xmm0, %xmm12, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpslldq $4, %xmm13, %xmm14 vpslldq $8, %xmm13, %xmm7 vpxor %xmm7, %xmm14, %xmm7 vpslldq $12, %xmm13, %xmm14 vpxor %xmm7, %xmm14, %xmm7 vpshufb .LCPI0_5(%rip), %xmm12, %xmm14 vaesenclast .LCPI0_13(%rip), %xmm14, %xmm14 vpxor %xmm7, %xmm13, %xmm7 vpxor %xmm7, %xmm14, %xmm7 vmovaps -24(%rsp), %xmm14 vmovaps %xmm14, 128(%rdi) vmovaps -40(%rsp), %xmm14 vmovaps %xmm14, 144(%rdi) vmovdqa %xmm6, 160(%rdi) vmovdqa %xmm5, 176(%rdi) vmovdqa %xmm4, 192(%rdi) vmovdqa %xmm9, 208(%rdi) vmovdqa %xmm10, 224(%rdi) vmovdqa %xmm15, 240(%rdi) vmovdqa %xmm11, 256(%rdi) vmovdqa %xmm1, 272(%rdi) vmovdqa %xmm3, 288(%rdi) vmovdqa %xmm0, 304(%rdi) vmovdqa %xmm13, 320(%rdi) vmovdqa %xmm12, 336(%rdi) vmovdqa %xmm7, 352(%rdi) vpunpcklqdq %xmm8, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm0, %xmm2 vpbroadcastq .LCPI0_20(%rip), %xmm1 vpclmulqdq $16, %xmm1, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm1, %xmm2, %xmm3 vpclmulqdq $17, %xmm0, %xmm0, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpxor %xmm3, %xmm2, %xmm2 vpclmulqdq $0, %xmm2, %xmm2, %xmm3 vpclmulqdq $16, %xmm1, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm1, %xmm3, %xmm4 vpclmulqdq $17, %xmm2, %xmm2, %xmm5 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $0, %xmm3, %xmm3, %xmm4 vpclmulqdq $16, %xmm1, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm1, %xmm4, %xmm5 vpclmulqdq $17, %xmm3, %xmm3, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $0, %xmm0, %xmm2, %xmm5 vpclmulqdq $16, %xmm0, %xmm2, %xmm6 vpclmulqdq $1, %xmm0, %xmm2, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $16, %xmm1, %xmm5, %xmm7 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $16, %xmm1, %xmm5, %xmm7 vpclmulqdq $17, %xmm0, %xmm2, %xmm8 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $0, %xmm5, %xmm5, %xmm6 vpclmulqdq $16, %xmm1, %xmm6, %xmm7 vpshufd $78, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $16, %xmm1, %xmm6, %xmm7 vpclmulqdq $17, %xmm5, %xmm5, %xmm8 vpshufd $78, %xmm6, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $0, %xmm0, %xmm6, %xmm7 vpclmulqdq $16, %xmm0, %xmm6, %xmm8 vpclmulqdq $1, %xmm0, %xmm6, %xmm9 vpxor %xmm8, %xmm9, %xmm8 vpslldq $8, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $16, %xmm1, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $16, %xmm1, %xmm7, %xmm9 vpclmulqdq $17, %xmm0, %xmm6, %xmm10 vpsrldq $8, %xmm8, %xmm8 vpxor %xmm8, %xmm10, %xmm8 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm0, %xmm3, %xmm8 vpclmulqdq $16, %xmm0, %xmm3, %xmm9 vpclmulqdq $1, %xmm0, %xmm3, %xmm10 vpxor %xmm9, %xmm10, %xmm9 vpslldq $8, %xmm9, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $16, %xmm1, %xmm8, %xmm10 vpshufd $78, %xmm8, %xmm8 vpxor %xmm8, %xmm10, %xmm8 vpclmulqdq $17, %xmm0, %xmm3, %xmm10 vpsrldq $8, %xmm9, %xmm9 vpxor %xmm9, %xmm10, %xmm9 vpclmulqdq $16, %xmm1, %xmm8, %xmm1 vpshufd $78, %xmm8, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpxor %xmm1, %xmm8, %xmm1 vmovdqa %xmm0, (%rdi) vmovdqa %xmm2, 16(%rdi) vmovdqa %xmm5, 32(%rdi) vmovdqa %xmm3, 48(%rdi) vmovdqa %xmm1, 64(%rdi) vmovdqa %xmm6, 80(%rdi) vmovdqa %xmm7, 96(%rdi) vmovdqa %xmm4, 112(%rdi) .LBB0_2: xorl %eax, %eax cmpq $32, %rdx sete %al retq .Lfunc_end0: .size haberdashery_sivmac_skylake_init, .Lfunc_end0-haberdashery_sivmac_skylake_init .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI1_0: .zero 8 .quad -4467570830351532032 .LCPI1_1: .quad -1 .quad 9223372036854775807 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI1_2: .quad -4467570830351532032 .section .text.haberdashery_sivmac_skylake_sign,"ax",@progbits .globl haberdashery_sivmac_skylake_sign .p2align 4, 0x90 .type haberdashery_sivmac_skylake_sign,@function haberdashery_sivmac_skylake_sign: .cfi_startproc cmpq $16, %r8 setne %r8b movabsq $68719476736, %rax cmpq %rax, %rdx seta %r9b xorl %eax, %eax orb %r8b, %r9b jne .LBB1_32 pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $56, %rsp .cfi_def_cfa_offset 112 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 vpxor %xmm2, %xmm2, %xmm2 cmpq $128, %rdx jb .LBB1_2 vmovdqu 16(%rsi), %xmm7 vmovdqu 32(%rsi), %xmm8 vmovdqu 48(%rsi), %xmm9 vmovdqu 64(%rsi), %xmm6 vmovdqu 80(%rsi), %xmm10 vmovdqu 96(%rsi), %xmm4 vmovdqu 112(%rsi), %xmm5 vmovdqa (%rdi), %xmm0 vmovdqa 16(%rdi), %xmm2 vmovdqa 32(%rdi), %xmm3 vmovdqa 48(%rdi), %xmm15 vpclmulqdq $0, %xmm5, %xmm0, %xmm11 vpclmulqdq $1, %xmm5, %xmm0, %xmm12 vpclmulqdq $16, %xmm5, %xmm0, %xmm13 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpclmulqdq $0, %xmm4, %xmm2, %xmm13 vpxor %xmm11, %xmm13, %xmm11 vpclmulqdq $1, %xmm4, %xmm2, %xmm13 vpclmulqdq $16, %xmm4, %xmm2, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpclmulqdq $17, %xmm4, %xmm2, %xmm4 vpxor %xmm5, %xmm4, %xmm13 vpclmulqdq $0, %xmm10, %xmm3, %xmm4 vpclmulqdq $1, %xmm10, %xmm3, %xmm5 vpclmulqdq $16, %xmm10, %xmm3, %xmm14 vpxor %xmm5, %xmm14, %xmm5 vpclmulqdq $0, %xmm6, %xmm15, %xmm14 vpxor %xmm4, %xmm14, %xmm14 vmovdqa 64(%rdi), %xmm4 vpxor %xmm14, %xmm11, %xmm11 vpclmulqdq $1, %xmm6, %xmm15, %xmm14 vpxor %xmm5, %xmm14, %xmm14 vmovdqa 80(%rdi), %xmm1 vpclmulqdq $17, %xmm10, %xmm3, %xmm10 vpxor %xmm14, %xmm12, %xmm12 vpclmulqdq $16, %xmm6, %xmm15, %xmm14 vpclmulqdq $17, %xmm6, %xmm15, %xmm6 vpxor %xmm6, %xmm10, %xmm6 vpxor %xmm6, %xmm13, %xmm10 vpclmulqdq $0, %xmm9, %xmm4, %xmm6 vpclmulqdq $1, %xmm9, %xmm4, %xmm13 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $16, %xmm9, %xmm4, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpclmulqdq $0, %xmm8, %xmm1, %xmm14 vpxor %xmm6, %xmm14, %xmm14 vpclmulqdq $1, %xmm8, %xmm1, %xmm6 vpxor %xmm6, %xmm13, %xmm13 vmovdqa 96(%rdi), %xmm6 vpclmulqdq $17, %xmm9, %xmm4, %xmm9 vpxor %xmm13, %xmm12, %xmm12 vpclmulqdq $17, %xmm8, %xmm1, %xmm13 vpxor %xmm13, %xmm9, %xmm9 vpclmulqdq $0, %xmm7, %xmm6, %xmm13 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $16, %xmm8, %xmm1, %xmm8 vpxor %xmm13, %xmm11, %xmm11 vpclmulqdq $1, %xmm7, %xmm6, %xmm13 vpxor %xmm13, %xmm8, %xmm8 vpclmulqdq $16, %xmm7, %xmm6, %xmm13 vpxor %xmm13, %xmm8, %xmm8 vmovdqu (%rsi), %xmm13 vpclmulqdq $17, %xmm7, %xmm6, %xmm7 vpxor %xmm7, %xmm9, %xmm9 vmovdqa 112(%rdi), %xmm7 vpxor %xmm9, %xmm10, %xmm10 vpclmulqdq $0, %xmm13, %xmm7, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $1, %xmm13, %xmm7, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $16, %xmm13, %xmm7, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpxor %xmm8, %xmm12, %xmm11 vpclmulqdq $17, %xmm13, %xmm7, %xmm8 vpxor %xmm8, %xmm10, %xmm10 subq $-128, %rsi leaq -128(%rdx), %rbx cmpq $128, %rbx jb .LBB1_6 vmovdqa %xmm1, 32(%rsp) vmovdqa %xmm4, %xmm1 vmovdqa %xmm15, %xmm4 vmovdqa %xmm0, (%rsp) .p2align 4, 0x90 .LBB1_5: vmovdqu 64(%rsi), %xmm12 vmovdqu 80(%rsi), %xmm13 vmovdqu 96(%rsi), %xmm14 vmovdqu 112(%rsi), %xmm15 vpslldq $8, %xmm11, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpsrldq $8, %xmm11, %xmm9 vpbroadcastq .LCPI1_2(%rip), %xmm5 vpclmulqdq $16, %xmm5, %xmm8, %xmm11 vpshufd $78, %xmm8, %xmm8 vpxor %xmm8, %xmm11, %xmm8 vpclmulqdq $16, %xmm5, %xmm8, %xmm11 vpshufd $78, %xmm8, %xmm8 vpxor (%rsi), %xmm10, %xmm10 vpxor %xmm9, %xmm10, %xmm9 vpxor %xmm8, %xmm9, %xmm8 vpxor %xmm11, %xmm8, %xmm10 vpclmulqdq $0, %xmm15, %xmm0, %xmm8 vpclmulqdq $1, %xmm15, %xmm0, %xmm9 vpclmulqdq $16, %xmm15, %xmm0, %xmm11 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $17, %xmm15, %xmm0, %xmm11 vpclmulqdq $0, %xmm14, %xmm2, %xmm15 vpxor %xmm8, %xmm15, %xmm8 vpclmulqdq $1, %xmm14, %xmm2, %xmm15 vpclmulqdq $16, %xmm14, %xmm2, %xmm0 vpxor %xmm0, %xmm15, %xmm0 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $17, %xmm14, %xmm2, %xmm9 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $0, %xmm13, %xmm3, %xmm11 vpclmulqdq $1, %xmm13, %xmm3, %xmm14 vpclmulqdq $16, %xmm13, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $0, %xmm12, %xmm4, %xmm15 vpxor %xmm15, %xmm11, %xmm11 vmovdqu 32(%rsi), %xmm15 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $1, %xmm12, %xmm4, %xmm11 vpxor %xmm11, %xmm14, %xmm11 vmovdqu 48(%rsi), %xmm14 vpclmulqdq $17, %xmm13, %xmm3, %xmm13 vpxor %xmm0, %xmm11, %xmm0 vpclmulqdq $16, %xmm12, %xmm4, %xmm11 vpclmulqdq $17, %xmm12, %xmm4, %xmm12 vpxor %xmm12, %xmm13, %xmm12 vpxor %xmm12, %xmm9, %xmm9 vpclmulqdq $0, %xmm14, %xmm1, %xmm12 vpclmulqdq $1, %xmm14, %xmm1, %xmm13 vpxor %xmm13, %xmm11, %xmm11 vpclmulqdq $16, %xmm14, %xmm1, %xmm13 vpxor %xmm13, %xmm11, %xmm11 vmovdqa 32(%rsp), %xmm5 vpclmulqdq $0, %xmm15, %xmm5, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpclmulqdq $1, %xmm15, %xmm5, %xmm13 vpxor %xmm13, %xmm11, %xmm11 vmovdqu 16(%rsi), %xmm13 vpclmulqdq $17, %xmm14, %xmm1, %xmm14 vpxor %xmm0, %xmm11, %xmm0 vpclmulqdq $17, %xmm15, %xmm5, %xmm11 vpxor %xmm11, %xmm14, %xmm11 vpclmulqdq $0, %xmm13, %xmm6, %xmm14 vpxor %xmm14, %xmm12, %xmm12 vpclmulqdq $16, %xmm15, %xmm5, %xmm14 vpxor %xmm12, %xmm8, %xmm8 vpclmulqdq $1, %xmm13, %xmm6, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $16, %xmm13, %xmm6, %xmm14 vpxor %xmm14, %xmm12, %xmm12 vpxor %xmm0, %xmm12, %xmm0 vpclmulqdq $17, %xmm13, %xmm6, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm9, %xmm12 vpclmulqdq $0, %xmm10, %xmm7, %xmm9 vpxor %xmm9, %xmm8, %xmm9 vpclmulqdq $1, %xmm10, %xmm7, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $16, %xmm10, %xmm7, %xmm8 vpxor %xmm0, %xmm8, %xmm11 vpclmulqdq $17, %xmm10, %xmm7, %xmm0 vpxor %xmm0, %xmm12, %xmm10 vmovdqa (%rsp), %xmm0 subq $-128, %rsi addq $-128, %rbx cmpq $127, %rbx ja .LBB1_5 .LBB1_6: vpslldq $8, %xmm11, %xmm0 vpxor %xmm0, %xmm9, %xmm0 vpsrldq $8, %xmm11, %xmm1 vpxor %xmm1, %xmm10, %xmm1 vpbroadcastq .LCPI1_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm2 shlq $3, %rdx movq %rbx, %rax andq $15, %rax je .LBB1_28 .LBB1_8: vmovdqa %xmm2, (%rsp) movq %rdx, %r15 movq %rdi, %r13 movq %rcx, %r12 movl %ebx, %r14d andl $112, %r14d movq %rsi, %rbp addq %r14, %rsi vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 16(%rsp) leaq 16(%rsp), %rdi movq %rax, %rdx callq *memcpy@GOTPCREL(%rip) vmovdqa 16(%rsp), %xmm0 testq %r14, %r14 je .LBB1_9 leaq -16(%r14), %rsi movq %rsi, %rax shrq $4, %rax leaq 2(%rax), %rdx cmpq $96, %rsi cmovaeq %rax, %rdx movq %rdx, %rax shlq $4, %rax movq %r13, %rdi vmovdqa (%r13,%rax), %xmm1 vmovdqa (%rsp), %xmm2 vpxor (%rbp), %xmm2, %xmm4 vpclmulqdq $0, %xmm4, %xmm1, %xmm2 vpclmulqdq $1, %xmm4, %xmm1, %xmm3 vpclmulqdq $16, %xmm4, %xmm1, %xmm5 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $17, %xmm4, %xmm1, %xmm1 testq %rsi, %rsi movq %r12, %rcx je .LBB1_11 movq %rbp, %r8 testb $16, %bl movq %r15, %rax jne .LBB1_14 leaq -32(%r14), %rsi vmovdqu 16(%r8), %xmm4 addq $16, %r8 decq %rdx movq %rdx, %r9 shlq $4, %r9 vmovdqa (%rdi,%r9), %xmm5 vpclmulqdq $0, %xmm4, %xmm5, %xmm6 vpclmulqdq $1, %xmm4, %xmm5, %xmm7 vpclmulqdq $16, %xmm4, %xmm5, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm4, %xmm5, %xmm4 vpxor %xmm2, %xmm6, %xmm2 vpxor %xmm3, %xmm7, %xmm3 vpxor %xmm1, %xmm4, %xmm1 .LBB1_14: cmpl $32, %r14d je .LBB1_17 movq %rdx, %r9 shlq $4, %r9 addq %rdi, %r9 addq $-16, %r9 xorl %r10d, %r10d .p2align 4, 0x90 .LBB1_16: vmovdqa -16(%r9), %xmm4 vmovdqa (%r9), %xmm5 vmovdqu 16(%r8,%r10), %xmm6 vmovdqu 32(%r8,%r10), %xmm7 vpclmulqdq $0, %xmm6, %xmm5, %xmm8 vpxor %xmm2, %xmm8, %xmm2 vpclmulqdq $1, %xmm6, %xmm5, %xmm8 vpxor %xmm3, %xmm8, %xmm3 vpclmulqdq $16, %xmm6, %xmm5, %xmm8 vpclmulqdq $17, %xmm6, %xmm5, %xmm5 vpxor %xmm1, %xmm5, %xmm1 addq $-2, %rdx vpclmulqdq $0, %xmm7, %xmm4, %xmm5 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $1, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm8, %xmm5 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $16, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $17, %xmm7, %xmm4, %xmm4 vpxor %xmm1, %xmm4, %xmm1 addq $-32, %r9 addq $32, %r10 cmpq %r10, %rsi jne .LBB1_16 .LBB1_17: testq %rdx, %rdx je .LBB1_19 .LBB1_18: vmovdqa (%rdi), %xmm4 vmovdqa 16(%rdi), %xmm5 vpclmulqdq $0, %xmm0, %xmm5, %xmm6 vpclmulqdq $1, %xmm0, %xmm5, %xmm7 vpclmulqdq $16, %xmm0, %xmm5, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm0, %xmm5, %xmm0 vmovq %rax, %xmm5 vpclmulqdq $0, %xmm5, %xmm4, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $1, %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpslldq $8, %xmm3, %xmm4 vpxor %xmm2, %xmm6, %xmm2 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpbroadcastq .LCPI1_2(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm3, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm3, %xmm0, %xmm0 jmp .LBB1_31 .LBB1_2: movq %rdx, %rbx shlq $3, %rdx movq %rbx, %rax andq $15, %rax jne .LBB1_8 .LBB1_28: cmpq $15, %rbx jbe .LBB1_29 vmovdqa (%rdi,%rbx), %xmm1 vpxor (%rsi), %xmm2, %xmm3 vpclmulqdq $0, %xmm3, %xmm1, %xmm0 vpclmulqdq $1, %xmm3, %xmm1, %xmm2 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $17, %xmm3, %xmm1, %xmm1 leaq -16(%rbx), %rax cmpq $16, %rax jb .LBB1_27 movq %rbx, %r8 shrq $4, %r8 testb $16, %bl jne .LBB1_24 vmovdqu 16(%rsi), %xmm3 addq $16, %rsi decq %r8 movq %r8, %rax shlq $4, %rax vmovdqa (%rdi,%rax), %xmm4 vpclmulqdq $0, %xmm3, %xmm4, %xmm5 vpclmulqdq $1, %xmm3, %xmm4, %xmm6 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $17, %xmm3, %xmm4, %xmm3 vpxor %xmm0, %xmm5, %xmm0 vpxor %xmm2, %xmm6, %xmm2 vpxor %xmm1, %xmm3, %xmm1 leaq -32(%rbx), %rax .LBB1_24: cmpq $32, %rbx je .LBB1_27 shlq $4, %r8 addq %rdi, %r8 addq $-16, %r8 addq $32, %rsi .p2align 4, 0x90 .LBB1_26: vmovdqa -16(%r8), %xmm3 vmovdqa (%r8), %xmm4 vmovdqu -16(%rsi), %xmm5 vmovdqu (%rsi), %xmm6 vpclmulqdq $0, %xmm5, %xmm4, %xmm7 vpxor %xmm0, %xmm7, %xmm0 vpclmulqdq $1, %xmm5, %xmm4, %xmm7 vpxor %xmm2, %xmm7, %xmm2 vpclmulqdq $16, %xmm5, %xmm4, %xmm7 vpclmulqdq $17, %xmm5, %xmm4, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $0, %xmm6, %xmm3, %xmm4 vpxor %xmm0, %xmm4, %xmm0 vpclmulqdq $1, %xmm6, %xmm3, %xmm4 vpxor %xmm7, %xmm4, %xmm4 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $17, %xmm6, %xmm3, %xmm3 vpxor %xmm1, %xmm3, %xmm1 addq $-32, %rax addq $-32, %r8 addq $32, %rsi cmpq $15, %rax ja .LBB1_26 .LBB1_27: vmovdqa (%rdi), %xmm3 vmovq %rdx, %xmm4 vpclmulqdq $0, %xmm4, %xmm3, %xmm5 vpxor %xmm0, %xmm5, %xmm0 vpclmulqdq $1, %xmm4, %xmm3, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpbroadcastq .LCPI1_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 jmp .LBB1_30 .LBB1_9: movq %r12, %rcx movq %r13, %rdi movq %r15, %rax vmovdqa (%rsp), %xmm3 jmp .LBB1_20 .LBB1_29: vmovdqa (%rdi), %xmm0 vmovq %rdx, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 .LBB1_30: vpxor %xmm0, %xmm2, %xmm0 jmp .LBB1_31 .LBB1_11: movq %r15, %rax testq %rdx, %rdx jne .LBB1_18 .LBB1_19: vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpbroadcastq .LCPI1_2(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpxor %xmm1, %xmm4, %xmm3 .LBB1_20: vmovdqa (%rdi), %xmm1 vmovdqa 16(%rdi), %xmm2 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $0, %xmm0, %xmm2, %xmm3 vpclmulqdq $1, %xmm0, %xmm2, %xmm4 vpclmulqdq $16, %xmm0, %xmm2, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm0, %xmm2, %xmm0 vmovq %rax, %xmm2 vpclmulqdq $0, %xmm2, %xmm1, %xmm5 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $1, %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpslldq $8, %xmm1, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpbroadcastq .LCPI1_2(%rip), %xmm1 vpclmulqdq $16, %xmm1, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm1, %xmm2, %xmm1 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 .LBB1_31: vpand .LCPI1_1(%rip), %xmm0, %xmm0 vpxor 128(%rdi), %xmm0, %xmm0 vaesenc 144(%rdi), %xmm0, %xmm0 vaesenc 160(%rdi), %xmm0, %xmm0 vaesenc 176(%rdi), %xmm0, %xmm0 vaesenc 192(%rdi), %xmm0, %xmm0 vaesenc 208(%rdi), %xmm0, %xmm0 vaesenc 224(%rdi), %xmm0, %xmm0 vaesenc 240(%rdi), %xmm0, %xmm0 vaesenc 256(%rdi), %xmm0, %xmm0 vaesenc 272(%rdi), %xmm0, %xmm0 vaesenc 288(%rdi), %xmm0, %xmm0 vaesenc 304(%rdi), %xmm0, %xmm0 vaesenc 320(%rdi), %xmm0, %xmm0 vaesenc 336(%rdi), %xmm0, %xmm0 vaesenclast 352(%rdi), %xmm0, %xmm0 vmovdqu %xmm0, (%rcx) movl $1, %eax addq $56, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp .LBB1_32: retq .Lfunc_end1: .size haberdashery_sivmac_skylake_sign, .Lfunc_end1-haberdashery_sivmac_skylake_sign .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .zero 8 .quad -4467570830351532032 .LCPI2_1: .quad -1 .quad 9223372036854775807 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI2_2: .quad -4467570830351532032 .section .text.haberdashery_sivmac_skylake_verify,"ax",@progbits .globl haberdashery_sivmac_skylake_verify .p2align 4, 0x90 .type haberdashery_sivmac_skylake_verify,@function haberdashery_sivmac_skylake_verify: .cfi_startproc movabsq $68719476736, %rax cmpq %rax, %rdx seta %r9b cmpq $16, %r8 setb %r8b xorl %eax, %eax orb %r9b, %r8b jne .LBB2_33 pushq %r15 .cfi_def_cfa_offset 16 pushq %r14 .cfi_def_cfa_offset 24 pushq %r13 .cfi_def_cfa_offset 32 pushq %r12 .cfi_def_cfa_offset 40 pushq %rbx .cfi_def_cfa_offset 48 subq $48, %rsp .cfi_def_cfa_offset 96 .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r13, -32 .cfi_offset %r14, -24 .cfi_offset %r15, -16 vpxor %xmm2, %xmm2, %xmm2 cmpq $128, %rdx jb .LBB2_6 vmovdqu 16(%rsi), %xmm7 vmovdqu 32(%rsi), %xmm8 vmovdqu 48(%rsi), %xmm9 vmovdqu 64(%rsi), %xmm6 vmovdqu 80(%rsi), %xmm10 vmovdqu 96(%rsi), %xmm4 vmovdqu 112(%rsi), %xmm5 vmovdqa (%rdi), %xmm0 vmovdqa 16(%rdi), %xmm2 vmovdqa 32(%rdi), %xmm3 vmovdqa 48(%rdi), %xmm15 vpclmulqdq $0, %xmm5, %xmm0, %xmm11 vpclmulqdq $1, %xmm5, %xmm0, %xmm12 vpclmulqdq $16, %xmm5, %xmm0, %xmm13 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpclmulqdq $0, %xmm4, %xmm2, %xmm13 vpxor %xmm11, %xmm13, %xmm11 vpclmulqdq $1, %xmm4, %xmm2, %xmm13 vpclmulqdq $16, %xmm4, %xmm2, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpclmulqdq $17, %xmm4, %xmm2, %xmm4 vpxor %xmm5, %xmm4, %xmm13 vpclmulqdq $0, %xmm10, %xmm3, %xmm4 vpclmulqdq $1, %xmm10, %xmm3, %xmm5 vpclmulqdq $16, %xmm10, %xmm3, %xmm14 vpxor %xmm5, %xmm14, %xmm5 vpclmulqdq $0, %xmm6, %xmm15, %xmm14 vpxor %xmm4, %xmm14, %xmm14 vmovdqa 64(%rdi), %xmm4 vpxor %xmm14, %xmm11, %xmm11 vpclmulqdq $1, %xmm6, %xmm15, %xmm14 vpxor %xmm5, %xmm14, %xmm14 vmovdqa 80(%rdi), %xmm1 vpclmulqdq $17, %xmm10, %xmm3, %xmm10 vpxor %xmm14, %xmm12, %xmm12 vpclmulqdq $16, %xmm6, %xmm15, %xmm14 vpclmulqdq $17, %xmm6, %xmm15, %xmm6 vpxor %xmm6, %xmm10, %xmm6 vpxor %xmm6, %xmm13, %xmm10 vpclmulqdq $0, %xmm9, %xmm4, %xmm6 vpclmulqdq $1, %xmm9, %xmm4, %xmm13 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $16, %xmm9, %xmm4, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpclmulqdq $0, %xmm8, %xmm1, %xmm14 vpxor %xmm6, %xmm14, %xmm14 vpclmulqdq $1, %xmm8, %xmm1, %xmm6 vpxor %xmm6, %xmm13, %xmm13 vmovdqa 96(%rdi), %xmm6 vpclmulqdq $17, %xmm9, %xmm4, %xmm9 vpxor %xmm13, %xmm12, %xmm12 vpclmulqdq $17, %xmm8, %xmm1, %xmm13 vpxor %xmm13, %xmm9, %xmm9 vpclmulqdq $0, %xmm7, %xmm6, %xmm13 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $16, %xmm8, %xmm1, %xmm8 vpxor %xmm13, %xmm11, %xmm11 vpclmulqdq $1, %xmm7, %xmm6, %xmm13 vpxor %xmm13, %xmm8, %xmm8 vpclmulqdq $16, %xmm7, %xmm6, %xmm13 vpxor %xmm13, %xmm8, %xmm8 vmovdqu (%rsi), %xmm13 vpclmulqdq $17, %xmm7, %xmm6, %xmm7 vpxor %xmm7, %xmm9, %xmm9 vmovdqa 112(%rdi), %xmm7 vpxor %xmm9, %xmm10, %xmm10 vpclmulqdq $0, %xmm13, %xmm7, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $1, %xmm13, %xmm7, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $16, %xmm13, %xmm7, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpxor %xmm8, %xmm12, %xmm11 vpclmulqdq $17, %xmm13, %xmm7, %xmm8 vpxor %xmm8, %xmm10, %xmm10 subq $-128, %rsi leaq -128(%rdx), %rbx cmpq $128, %rbx jb .LBB2_5 vmovdqa %xmm1, (%rsp) vmovdqa %xmm4, %xmm1 vmovdqa %xmm15, %xmm4 vmovdqa %xmm0, 16(%rsp) .p2align 4, 0x90 .LBB2_4: vmovdqu 64(%rsi), %xmm12 vmovdqu 80(%rsi), %xmm13 vmovdqu 96(%rsi), %xmm14 vmovdqu 112(%rsi), %xmm15 vpslldq $8, %xmm11, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpsrldq $8, %xmm11, %xmm9 vpbroadcastq .LCPI2_2(%rip), %xmm5 vpclmulqdq $16, %xmm5, %xmm8, %xmm11 vpshufd $78, %xmm8, %xmm8 vpxor %xmm8, %xmm11, %xmm8 vpclmulqdq $16, %xmm5, %xmm8, %xmm11 vpshufd $78, %xmm8, %xmm8 vpxor (%rsi), %xmm10, %xmm10 vpxor %xmm9, %xmm10, %xmm9 vpxor %xmm8, %xmm9, %xmm8 vpxor %xmm11, %xmm8, %xmm10 vpclmulqdq $0, %xmm15, %xmm0, %xmm8 vpclmulqdq $1, %xmm15, %xmm0, %xmm9 vpclmulqdq $16, %xmm15, %xmm0, %xmm11 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $17, %xmm15, %xmm0, %xmm11 vpclmulqdq $0, %xmm14, %xmm2, %xmm15 vpxor %xmm8, %xmm15, %xmm8 vpclmulqdq $1, %xmm14, %xmm2, %xmm15 vpclmulqdq $16, %xmm14, %xmm2, %xmm0 vpxor %xmm0, %xmm15, %xmm0 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $17, %xmm14, %xmm2, %xmm9 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $0, %xmm13, %xmm3, %xmm11 vpclmulqdq $1, %xmm13, %xmm3, %xmm14 vpclmulqdq $16, %xmm13, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $0, %xmm12, %xmm4, %xmm15 vpxor %xmm15, %xmm11, %xmm11 vmovdqu 32(%rsi), %xmm15 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $1, %xmm12, %xmm4, %xmm11 vpxor %xmm11, %xmm14, %xmm11 vmovdqu 48(%rsi), %xmm14 vpclmulqdq $17, %xmm13, %xmm3, %xmm13 vpxor %xmm0, %xmm11, %xmm0 vpclmulqdq $16, %xmm12, %xmm4, %xmm11 vpclmulqdq $17, %xmm12, %xmm4, %xmm12 vpxor %xmm12, %xmm13, %xmm12 vpxor %xmm12, %xmm9, %xmm9 vpclmulqdq $0, %xmm14, %xmm1, %xmm12 vpclmulqdq $1, %xmm14, %xmm1, %xmm13 vpxor %xmm13, %xmm11, %xmm11 vpclmulqdq $16, %xmm14, %xmm1, %xmm13 vpxor %xmm13, %xmm11, %xmm11 vmovdqa (%rsp), %xmm5 vpclmulqdq $0, %xmm15, %xmm5, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpclmulqdq $1, %xmm15, %xmm5, %xmm13 vpxor %xmm13, %xmm11, %xmm11 vmovdqu 16(%rsi), %xmm13 vpclmulqdq $17, %xmm14, %xmm1, %xmm14 vpxor %xmm0, %xmm11, %xmm0 vpclmulqdq $17, %xmm15, %xmm5, %xmm11 vpxor %xmm11, %xmm14, %xmm11 vpclmulqdq $0, %xmm13, %xmm6, %xmm14 vpxor %xmm14, %xmm12, %xmm12 vpclmulqdq $16, %xmm15, %xmm5, %xmm14 vpxor %xmm12, %xmm8, %xmm8 vpclmulqdq $1, %xmm13, %xmm6, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $16, %xmm13, %xmm6, %xmm14 vpxor %xmm14, %xmm12, %xmm12 vpxor %xmm0, %xmm12, %xmm0 vpclmulqdq $17, %xmm13, %xmm6, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm9, %xmm12 vpclmulqdq $0, %xmm10, %xmm7, %xmm9 vpxor %xmm9, %xmm8, %xmm9 vpclmulqdq $1, %xmm10, %xmm7, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $16, %xmm10, %xmm7, %xmm8 vpxor %xmm0, %xmm8, %xmm11 vpclmulqdq $17, %xmm10, %xmm7, %xmm0 vpxor %xmm0, %xmm12, %xmm10 vmovdqa 16(%rsp), %xmm0 subq $-128, %rsi addq $-128, %rbx cmpq $127, %rbx ja .LBB2_4 .LBB2_5: vpslldq $8, %xmm11, %xmm0 vpxor %xmm0, %xmm9, %xmm0 vpsrldq $8, %xmm11, %xmm1 vpxor %xmm1, %xmm10, %xmm1 vpbroadcastq .LCPI2_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm2 jmp .LBB2_7 .LBB2_6: movq %rdx, %rbx .LBB2_7: vmovdqu (%rcx), %xmm8 shlq $3, %rdx movq %rbx, %rax andq $15, %rax je .LBB2_17 vmovdqa %xmm2, (%rsp) vmovdqa %xmm8, 16(%rsp) movq %rdx, %r15 movq %rdi, %r12 movl %ebx, %r14d andl $112, %r14d movq %rsi, %r13 addq %r14, %rsi vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) leaq 32(%rsp), %rdi movq %rax, %rdx callq *memcpy@GOTPCREL(%rip) vmovdqa 32(%rsp), %xmm0 testq %r14, %r14 je .LBB2_25 leaq -16(%r14), %rdx movq %rdx, %rax shrq $4, %rax leaq 2(%rax), %rcx cmpq $96, %rdx cmovaeq %rax, %rcx movq %rcx, %rax shlq $4, %rax movq %r12, %rdi vmovdqa (%r12,%rax), %xmm1 vmovdqa (%rsp), %xmm2 vpxor (%r13), %xmm2, %xmm4 vpclmulqdq $0, %xmm4, %xmm1, %xmm2 vpclmulqdq $1, %xmm4, %xmm1, %xmm3 vpclmulqdq $16, %xmm4, %xmm1, %xmm5 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $17, %xmm4, %xmm1, %xmm1 testq %rdx, %rdx je .LBB2_28 movq %r13, %rsi testb $16, %bl movq %r15, %rax jne .LBB2_12 leaq -32(%r14), %rdx vmovdqu 16(%rsi), %xmm4 addq $16, %rsi decq %rcx movq %rcx, %r8 shlq $4, %r8 vmovdqa (%rdi,%r8), %xmm5 vpclmulqdq $0, %xmm4, %xmm5, %xmm6 vpclmulqdq $1, %xmm4, %xmm5, %xmm7 vpclmulqdq $16, %xmm4, %xmm5, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm4, %xmm5, %xmm4 vpxor %xmm2, %xmm6, %xmm2 vpxor %xmm3, %xmm7, %xmm3 vpxor %xmm1, %xmm4, %xmm1 .LBB2_12: cmpl $32, %r14d je .LBB2_15 movq %rcx, %r8 shlq $4, %r8 addq %rdi, %r8 addq $-16, %r8 xorl %r9d, %r9d .p2align 4, 0x90 .LBB2_14: vmovdqa -16(%r8), %xmm4 vmovdqa (%r8), %xmm5 vmovdqu 16(%rsi,%r9), %xmm6 vmovdqu 32(%rsi,%r9), %xmm7 vpclmulqdq $0, %xmm6, %xmm5, %xmm8 vpxor %xmm2, %xmm8, %xmm2 vpclmulqdq $1, %xmm6, %xmm5, %xmm8 vpxor %xmm3, %xmm8, %xmm3 vpclmulqdq $16, %xmm6, %xmm5, %xmm8 vpclmulqdq $17, %xmm6, %xmm5, %xmm5 vpxor %xmm1, %xmm5, %xmm1 addq $-2, %rcx vpclmulqdq $0, %xmm7, %xmm4, %xmm5 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $1, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm8, %xmm5 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $16, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $17, %xmm7, %xmm4, %xmm4 vpxor %xmm1, %xmm4, %xmm1 addq $-32, %r8 addq $32, %r9 cmpq %r9, %rdx jne .LBB2_14 .LBB2_15: testq %rcx, %rcx je .LBB2_29 .LBB2_16: vmovdqa (%rdi), %xmm4 vmovdqa 16(%rdi), %xmm5 vpclmulqdq $0, %xmm0, %xmm5, %xmm6 vpclmulqdq $1, %xmm0, %xmm5, %xmm7 vpclmulqdq $16, %xmm0, %xmm5, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm0, %xmm5, %xmm0 vmovq %rax, %xmm5 vpclmulqdq $0, %xmm5, %xmm4, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $1, %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpslldq $8, %xmm3, %xmm4 vpxor %xmm2, %xmm6, %xmm2 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpbroadcastq .LCPI2_2(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm3, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm3, %xmm0, %xmm0 jmp .LBB2_31 .LBB2_17: cmpq $15, %rbx jbe .LBB2_26 vmovdqa (%rdi,%rbx), %xmm1 vpxor (%rsi), %xmm2, %xmm3 vpclmulqdq $0, %xmm3, %xmm1, %xmm0 vpclmulqdq $1, %xmm3, %xmm1, %xmm2 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $17, %xmm3, %xmm1, %xmm1 leaq -16(%rbx), %rax cmpq $16, %rax jb .LBB2_24 movq %rbx, %rcx shrq $4, %rcx testb $16, %bl jne .LBB2_21 vmovdqu 16(%rsi), %xmm3 addq $16, %rsi decq %rcx movq %rcx, %rax shlq $4, %rax vmovdqa (%rdi,%rax), %xmm4 vpclmulqdq $0, %xmm3, %xmm4, %xmm5 vpclmulqdq $1, %xmm3, %xmm4, %xmm6 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $17, %xmm3, %xmm4, %xmm3 vpxor %xmm0, %xmm5, %xmm0 vpxor %xmm2, %xmm6, %xmm2 vpxor %xmm1, %xmm3, %xmm1 leaq -32(%rbx), %rax .LBB2_21: cmpq $32, %rbx je .LBB2_24 shlq $4, %rcx addq %rdi, %rcx addq $-16, %rcx addq $32, %rsi .p2align 4, 0x90 .LBB2_23: vmovdqa -16(%rcx), %xmm3 vmovdqa (%rcx), %xmm4 vmovdqu -16(%rsi), %xmm5 vmovdqu (%rsi), %xmm6 vpclmulqdq $0, %xmm5, %xmm4, %xmm7 vpxor %xmm0, %xmm7, %xmm0 vpclmulqdq $1, %xmm5, %xmm4, %xmm7 vpxor %xmm2, %xmm7, %xmm2 vpclmulqdq $16, %xmm5, %xmm4, %xmm7 vpclmulqdq $17, %xmm5, %xmm4, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $0, %xmm6, %xmm3, %xmm4 vpxor %xmm0, %xmm4, %xmm0 vpclmulqdq $1, %xmm6, %xmm3, %xmm4 vpxor %xmm7, %xmm4, %xmm4 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $17, %xmm6, %xmm3, %xmm3 vpxor %xmm1, %xmm3, %xmm1 addq $-32, %rax addq $-32, %rcx addq $32, %rsi cmpq $15, %rax ja .LBB2_23 .LBB2_24: vmovdqa (%rdi), %xmm3 vmovq %rdx, %xmm4 vpclmulqdq $0, %xmm4, %xmm3, %xmm5 vpxor %xmm0, %xmm5, %xmm0 vpclmulqdq $1, %xmm4, %xmm3, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpbroadcastq .LCPI2_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 jmp .LBB2_27 .LBB2_25: movq %r12, %rdi movq %r15, %rax vmovdqa (%rsp), %xmm3 jmp .LBB2_30 .LBB2_26: vmovdqa (%rdi), %xmm0 vmovq %rdx, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI2_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 .LBB2_27: vpxor %xmm0, %xmm2, %xmm0 jmp .LBB2_32 .LBB2_28: movq %r15, %rax testq %rcx, %rcx jne .LBB2_16 .LBB2_29: vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpbroadcastq .LCPI2_2(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpxor %xmm1, %xmm4, %xmm3 .LBB2_30: vmovdqa (%rdi), %xmm1 vmovdqa 16(%rdi), %xmm2 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $0, %xmm0, %xmm2, %xmm3 vpclmulqdq $1, %xmm0, %xmm2, %xmm4 vpclmulqdq $16, %xmm0, %xmm2, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm0, %xmm2, %xmm0 vmovq %rax, %xmm2 vpclmulqdq $0, %xmm2, %xmm1, %xmm5 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $1, %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpslldq $8, %xmm1, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpbroadcastq .LCPI2_2(%rip), %xmm1 vpclmulqdq $16, %xmm1, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm1, %xmm2, %xmm1 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 .LBB2_31: vmovdqa 16(%rsp), %xmm8 .LBB2_32: vpand .LCPI2_1(%rip), %xmm0, %xmm0 vpxor 128(%rdi), %xmm0, %xmm0 vaesenc 144(%rdi), %xmm0, %xmm0 vaesenc 160(%rdi), %xmm0, %xmm0 vaesenc 176(%rdi), %xmm0, %xmm0 vaesenc 192(%rdi), %xmm0, %xmm0 vaesenc 208(%rdi), %xmm0, %xmm0 vaesenc 224(%rdi), %xmm0, %xmm0 vaesenc 240(%rdi), %xmm0, %xmm0 vaesenc 256(%rdi), %xmm0, %xmm0 vaesenc 272(%rdi), %xmm0, %xmm0 vaesenc 288(%rdi), %xmm0, %xmm0 vaesenc 304(%rdi), %xmm0, %xmm0 vaesenc 320(%rdi), %xmm0, %xmm0 vaesenc 336(%rdi), %xmm0, %xmm0 vaesenclast 352(%rdi), %xmm0, %xmm0 vpxor %xmm0, %xmm8, %xmm0 xorl %eax, %eax vptest %xmm0, %xmm0 sete %al addq $48, %rsp .cfi_def_cfa_offset 48 popq %rbx .cfi_def_cfa_offset 40 popq %r12 .cfi_def_cfa_offset 32 popq %r13 .cfi_def_cfa_offset 24 popq %r14 .cfi_def_cfa_offset 16 popq %r15 .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .LBB2_33: retq .Lfunc_end2: .size haberdashery_sivmac_skylake_verify, .Lfunc_end2-haberdashery_sivmac_skylake_verify .cfi_endproc .section .text.haberdashery_sivmac_skylake_is_supported,"ax",@progbits .globl haberdashery_sivmac_skylake_is_supported .p2align 4, 0x90 .type haberdashery_sivmac_skylake_is_supported,@function haberdashery_sivmac_skylake_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $9175337, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end3: .size haberdashery_sivmac_skylake_is_supported, .Lfunc_end3-haberdashery_sivmac_skylake_is_supported .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
52,840
asm/aes192gcm_tigerlake.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_1: .quad -4467570830351532032 .section .text.haberdashery_aes192gcm_tigerlake_init,"ax",@progbits .globl haberdashery_aes192gcm_tigerlake_init .p2align 4, 0x90 .type haberdashery_aes192gcm_tigerlake_init,@function haberdashery_aes192gcm_tigerlake_init: .cfi_startproc cmpq $24, %rdx jne .LBB0_2 vmovupd (%rsi), %xmm0 vmovq 16(%rsi), %xmm1 vpslldq $4, %xmm0, %xmm2 vpslldq $8, %xmm0, %xmm3 vaeskeygenassist $1, %xmm1, %xmm4 vpslldq $12, %xmm0, %xmm5 vpternlogq $150, %xmm3, %xmm2, %xmm5 vpshufd $85, %xmm4, %xmm4 vpternlogq $150, %xmm5, %xmm0, %xmm4 vpshufd $255, %xmm4, %xmm2 vpslldq $4, %xmm1, %xmm5 vpternlogq $150, %xmm2, %xmm1, %xmm5 vpunpcklqdq %xmm4, %xmm1, %xmm17 vpalignr $8, %xmm4, %xmm5, %xmm2 vpslldq $4, %xmm4, %xmm3 vpslldq $8, %xmm4, %xmm6 vpslldq $12, %xmm4, %xmm7 vpternlogq $150, %xmm6, %xmm3, %xmm7 vaeskeygenassist $2, %xmm5, %xmm3 vpshufd $85, %xmm3, %xmm3 vpternlogq $150, %xmm7, %xmm4, %xmm3 vpshufd $255, %xmm3, %xmm4 vpslldq $4, %xmm5, %xmm6 vpternlogq $150, %xmm4, %xmm5, %xmm6 vpslldq $4, %xmm3, %xmm4 vpslldq $8, %xmm3, %xmm5 vaeskeygenassist $4, %xmm6, %xmm7 vpslldq $12, %xmm3, %xmm8 vpternlogq $150, %xmm5, %xmm4, %xmm8 vpshufd $85, %xmm7, %xmm7 vpternlogq $150, %xmm8, %xmm3, %xmm7 vpshufd $255, %xmm7, %xmm4 vpslldq $4, %xmm6, %xmm8 vpternlogq $150, %xmm4, %xmm6, %xmm8 vpunpcklqdq %xmm7, %xmm6, %xmm4 vpalignr $8, %xmm7, %xmm8, %xmm5 vpslldq $4, %xmm7, %xmm6 vpslldq $8, %xmm7, %xmm9 vpslldq $12, %xmm7, %xmm10 vpternlogq $150, %xmm9, %xmm6, %xmm10 vaeskeygenassist $8, %xmm8, %xmm6 vpshufd $85, %xmm6, %xmm6 vpternlogq $150, %xmm10, %xmm7, %xmm6 vpshufd $255, %xmm6, %xmm7 vpslldq $4, %xmm8, %xmm9 vpternlogq $150, %xmm7, %xmm8, %xmm9 vpslldq $4, %xmm6, %xmm7 vpslldq $8, %xmm6, %xmm8 vaeskeygenassist $16, %xmm9, %xmm10 vpslldq $12, %xmm6, %xmm11 vpternlogq $150, %xmm8, %xmm7, %xmm11 vpshufd $85, %xmm10, %xmm10 vpternlogq $150, %xmm11, %xmm6, %xmm10 vpshufd $255, %xmm10, %xmm7 vpslldq $4, %xmm9, %xmm11 vpternlogq $150, %xmm7, %xmm9, %xmm11 vpunpcklqdq %xmm10, %xmm9, %xmm7 vpalignr $8, %xmm10, %xmm11, %xmm8 vpslldq $4, %xmm10, %xmm9 vpslldq $8, %xmm10, %xmm12 vpslldq $12, %xmm10, %xmm13 vpternlogq $150, %xmm12, %xmm9, %xmm13 vaeskeygenassist $32, %xmm11, %xmm9 vpshufd $85, %xmm9, %xmm9 vpternlogq $150, %xmm13, %xmm10, %xmm9 vpshufd $255, %xmm9, %xmm10 vpslldq $4, %xmm11, %xmm12 vpternlogq $150, %xmm10, %xmm11, %xmm12 vpslldq $4, %xmm9, %xmm10 vpslldq $8, %xmm9, %xmm11 vaeskeygenassist $64, %xmm12, %xmm13 vpslldq $12, %xmm9, %xmm14 vpternlogq $150, %xmm11, %xmm10, %xmm14 vpshufd $85, %xmm13, %xmm13 vpternlogq $150, %xmm14, %xmm9, %xmm13 vpshufd $255, %xmm13, %xmm10 vpslldq $4, %xmm12, %xmm14 vpternlogq $150, %xmm10, %xmm12, %xmm14 vpunpcklqdq %xmm13, %xmm12, %xmm10 vpalignr $8, %xmm13, %xmm14, %xmm11 vpslldq $4, %xmm13, %xmm12 vpslldq $8, %xmm13, %xmm15 vpslldq $12, %xmm13, %xmm16 vpternlogq $150, %xmm15, %xmm12, %xmm16 vaeskeygenassist $128, %xmm14, %xmm12 vpshufd $85, %xmm12, %xmm12 vpternlogq $150, %xmm16, %xmm13, %xmm12 vaesenc %xmm17, %xmm0, %xmm13 vaesenc %xmm2, %xmm13, %xmm13 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm10, %xmm13, %xmm13 vaesenc %xmm11, %xmm13, %xmm13 vaesenclast %xmm12, %xmm13, %xmm13 vpshufb .LCPI0_0(%rip), %xmm13, %xmm13 vpsrlq $63, %xmm13, %xmm14 vpaddq %xmm13, %xmm13, %xmm13 vpshufd $78, %xmm14, %xmm15 vpxor %xmm1, %xmm1, %xmm1 vpblendd $12, %xmm14, %xmm1, %xmm1 vpsllq $63, %xmm1, %xmm14 vpternlogq $30, %xmm15, %xmm13, %xmm14 vpsllq $62, %xmm1, %xmm15 vpsllq $57, %xmm1, %xmm13 vpternlogq $150, %xmm15, %xmm14, %xmm13 vpclmulqdq $0, %xmm13, %xmm13, %xmm1 vpbroadcastq .LCPI0_1(%rip), %xmm15 vpclmulqdq $16, %xmm15, %xmm1, %xmm14 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm14, %xmm1 vpclmulqdq $16, %xmm15, %xmm1, %xmm16 vpclmulqdq $17, %xmm13, %xmm13, %xmm18 vpshufd $78, %xmm1, %xmm14 vpternlogq $150, %xmm16, %xmm18, %xmm14 vpclmulqdq $0, %xmm13, %xmm14, %xmm1 vpclmulqdq $16, %xmm13, %xmm14, %xmm16 vpclmulqdq $1, %xmm13, %xmm14, %xmm18 vpxorq %xmm16, %xmm18, %xmm16 vpslldq $8, %xmm16, %xmm18 vpxorq %xmm18, %xmm1, %xmm1 vpclmulqdq $16, %xmm15, %xmm1, %xmm18 vpshufd $78, %xmm1, %xmm1 vpxorq %xmm1, %xmm18, %xmm1 vpclmulqdq $16, %xmm15, %xmm1, %xmm18 vpclmulqdq $17, %xmm13, %xmm14, %xmm19 vpxorq %xmm18, %xmm19, %xmm18 vpsrldq $8, %xmm16, %xmm16 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm16, %xmm18, %xmm1 vpclmulqdq $0, %xmm1, %xmm1, %xmm16 vpclmulqdq $16, %xmm15, %xmm16, %xmm18 vpshufd $78, %xmm16, %xmm16 vpxorq %xmm16, %xmm18, %xmm16 vpclmulqdq $16, %xmm15, %xmm16, %xmm18 vpclmulqdq $17, %xmm1, %xmm1, %xmm19 vpshufd $78, %xmm16, %xmm16 vpternlogq $150, %xmm18, %xmm19, %xmm16 vpclmulqdq $0, %xmm14, %xmm14, %xmm18 vpclmulqdq $16, %xmm15, %xmm18, %xmm19 vpshufd $78, %xmm18, %xmm18 vpxorq %xmm18, %xmm19, %xmm18 vpclmulqdq $16, %xmm15, %xmm18, %xmm19 vpclmulqdq $17, %xmm14, %xmm14, %xmm20 vpshufd $78, %xmm18, %xmm18 vpternlogq $150, %xmm19, %xmm20, %xmm18 vpclmulqdq $0, %xmm13, %xmm18, %xmm19 vpclmulqdq $16, %xmm13, %xmm18, %xmm20 vpclmulqdq $1, %xmm13, %xmm18, %xmm21 vpxorq %xmm20, %xmm21, %xmm20 vpslldq $8, %xmm20, %xmm21 vpxorq %xmm21, %xmm19, %xmm19 vpclmulqdq $16, %xmm15, %xmm19, %xmm21 vpshufd $78, %xmm19, %xmm19 vpxorq %xmm19, %xmm21, %xmm19 vpclmulqdq $16, %xmm15, %xmm19, %xmm15 vpclmulqdq $17, %xmm13, %xmm18, %xmm21 vpxorq %xmm15, %xmm21, %xmm15 vpsrldq $8, %xmm20, %xmm20 vpshufd $78, %xmm19, %xmm19 vpternlogq $150, %xmm20, %xmm15, %xmm19 vmovdqa %xmm0, (%rdi) vmovdqa64 %xmm17, 16(%rdi) vmovdqa %xmm2, 32(%rdi) vmovdqa %xmm3, 48(%rdi) vmovdqa %xmm4, 64(%rdi) vmovdqa %xmm5, 80(%rdi) vmovdqa %xmm6, 96(%rdi) vmovdqa %xmm7, 112(%rdi) vmovdqa %xmm8, 128(%rdi) vmovdqa %xmm9, 144(%rdi) vmovdqa %xmm10, 160(%rdi) vmovdqa %xmm11, 176(%rdi) vmovdqa %xmm12, 192(%rdi) vmovdqa %xmm13, 208(%rdi) vmovdqa %xmm14, 224(%rdi) vmovdqa %xmm1, 240(%rdi) vmovdqa64 %xmm18, 256(%rdi) vmovdqa64 %xmm19, 272(%rdi) vmovdqa64 %xmm16, 288(%rdi) .LBB0_2: xorl %eax, %eax cmpq $24, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes192gcm_tigerlake_init, .Lfunc_end0-haberdashery_aes192gcm_tigerlake_init .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI1_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_1: .long 1 .long 0 .long 0 .long 0 .LCPI1_2: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_4: .long 2 .long 0 .long 0 .long 0 .LCPI1_5: .long 3 .long 0 .long 0 .long 0 .LCPI1_6: .long 4 .long 0 .long 0 .long 0 .LCPI1_7: .long 5 .long 0 .long 0 .long 0 .LCPI1_8: .long 6 .long 0 .long 0 .long 0 .LCPI1_9: .long 7 .long 0 .long 0 .long 0 .LCPI1_10: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_11: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI1_3: .quad -4467570830351532032 .section .rodata,"a",@progbits .LCPI1_12: .byte 1 .byte 0 .section .text.haberdashery_aes192gcm_tigerlake_encrypt,"ax",@progbits .globl haberdashery_aes192gcm_tigerlake_encrypt .p2align 4, 0x90 .type haberdashery_aes192gcm_tigerlake_encrypt,@function haberdashery_aes192gcm_tigerlake_encrypt: .cfi_startproc pushq %rbx .cfi_def_cfa_offset 16 subq $64, %rsp .cfi_def_cfa_offset 80 .cfi_offset %rbx, -16 movq 80(%rsp), %r10 xorl %eax, %eax cmpq 96(%rsp), %r10 jne .LBB1_22 cmpq $16, 112(%rsp) setne %r11b movabsq $2305843009213693950, %rbx cmpq %rbx, %r8 seta %bl orb %r11b, %bl jne .LBB1_22 movq %r10, %r11 shrq $5, %r11 cmpq $2147483647, %r11 setae %r11b cmpq $12, %rdx setne %dl orb %r11b, %dl jne .LBB1_22 vmovd (%rsi), %xmm0 vpinsrd $1, 4(%rsi), %xmm0, %xmm0 vpinsrd $2, 8(%rsi), %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm23 vpxor %xmm1, %xmm1, %xmm1 testq %r8, %r8 je .LBB1_18 cmpq $96, %r8 jb .LBB1_5 vmovdqa 208(%rdi), %xmm0 vmovdqa 224(%rdi), %xmm2 vmovdqa 240(%rdi), %xmm3 vmovdqa 256(%rdi), %xmm4 vmovdqa 272(%rdi), %xmm5 vmovdqa 288(%rdi), %xmm6 vmovdqa .LCPI1_2(%rip), %xmm7 vpbroadcastq .LCPI1_3(%rip), %xmm8 movq %r8, %rdx .p2align 4, 0x90 .LBB1_17: vmovdqu (%rcx), %xmm9 vmovdqu 16(%rcx), %xmm10 vmovdqu 32(%rcx), %xmm11 vmovdqu 48(%rcx), %xmm12 vmovdqu 64(%rcx), %xmm13 vmovdqu 80(%rcx), %xmm14 addq $96, %rcx addq $-96, %rdx vpshufb %xmm7, %xmm9, %xmm9 vpxor %xmm1, %xmm9, %xmm1 vpshufb %xmm7, %xmm10, %xmm9 vpshufb %xmm7, %xmm11, %xmm10 vpshufb %xmm7, %xmm12, %xmm11 vpshufb %xmm7, %xmm13, %xmm12 vpshufb %xmm7, %xmm14, %xmm13 vpclmulqdq $0, %xmm13, %xmm0, %xmm14 vpclmulqdq $1, %xmm13, %xmm0, %xmm15 vpclmulqdq $16, %xmm13, %xmm0, %xmm17 vpxorq %xmm15, %xmm17, %xmm15 vpclmulqdq $17, %xmm13, %xmm0, %xmm13 vpclmulqdq $0, %xmm12, %xmm2, %xmm17 vpclmulqdq $1, %xmm12, %xmm2, %xmm18 vpclmulqdq $16, %xmm12, %xmm2, %xmm19 vpternlogq $150, %xmm18, %xmm15, %xmm19 vpclmulqdq $17, %xmm12, %xmm2, %xmm12 vpclmulqdq $0, %xmm11, %xmm3, %xmm15 vpternlogq $150, %xmm14, %xmm17, %xmm15 vpclmulqdq $1, %xmm11, %xmm3, %xmm14 vpclmulqdq $16, %xmm11, %xmm3, %xmm17 vpternlogq $150, %xmm14, %xmm19, %xmm17 vpclmulqdq $17, %xmm11, %xmm3, %xmm11 vpternlogq $150, %xmm13, %xmm12, %xmm11 vpclmulqdq $0, %xmm10, %xmm4, %xmm12 vpclmulqdq $1, %xmm10, %xmm4, %xmm13 vpclmulqdq $16, %xmm10, %xmm4, %xmm14 vpternlogq $150, %xmm13, %xmm17, %xmm14 vpclmulqdq $17, %xmm10, %xmm4, %xmm10 vpclmulqdq $0, %xmm9, %xmm5, %xmm13 vpternlogq $150, %xmm12, %xmm15, %xmm13 vpclmulqdq $1, %xmm9, %xmm5, %xmm12 vpclmulqdq $16, %xmm9, %xmm5, %xmm15 vpternlogq $150, %xmm12, %xmm14, %xmm15 vpclmulqdq $17, %xmm9, %xmm5, %xmm9 vpternlogq $150, %xmm10, %xmm11, %xmm9 vpclmulqdq $0, %xmm1, %xmm6, %xmm10 vpclmulqdq $1, %xmm1, %xmm6, %xmm11 vpclmulqdq $16, %xmm1, %xmm6, %xmm12 vpternlogq $150, %xmm11, %xmm15, %xmm12 vpclmulqdq $17, %xmm1, %xmm6, %xmm1 vpslldq $8, %xmm12, %xmm11 vpternlogq $150, %xmm10, %xmm13, %xmm11 vpsrldq $8, %xmm12, %xmm10 vpclmulqdq $16, %xmm8, %xmm11, %xmm12 vpshufd $78, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $16, %xmm8, %xmm11, %xmm12 vpternlogq $150, %xmm1, %xmm9, %xmm12 vpshufd $78, %xmm11, %xmm1 vpternlogq $150, %xmm10, %xmm12, %xmm1 cmpq $95, %rdx ja .LBB1_17 cmpq $16, %rdx jae .LBB1_11 jmp .LBB1_7 .LBB1_18: testq %r10, %r10 jne .LBB1_25 jmp .LBB1_19 .LBB1_5: movq %r8, %rdx cmpq $16, %rdx jb .LBB1_7 .LBB1_11: vmovdqa 208(%rdi), %xmm0 leaq -16(%rdx), %rsi testb $16, %sil je .LBB1_12 cmpq $16, %rsi jae .LBB1_14 .LBB1_8: testq %rsi, %rsi je .LBB1_20 .LBB1_9: movl $-1, %edx bzhil %esi, %edx, %edx kmovd %edx, %k1 vmovdqu8 (%rcx), %xmm0 {%k1} {z} testq %r10, %r10 je .LBB1_10 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB1_22 vmovdqa 208(%rdi), %xmm2 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm0, %xmm2, %xmm1 vpclmulqdq $1, %xmm0, %xmm2, %xmm3 vpclmulqdq $16, %xmm0, %xmm2, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm2, %xmm0 vpslldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI1_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm2, %xmm0, %xmm1 jmp .LBB1_25 .LBB1_12: vmovdqu (%rcx), %xmm2 addq $16, %rcx vpshufb .LCPI1_2(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpbroadcastq .LCPI1_3(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm4 vpshufd $78, %xmm2, %xmm1 vpternlogq $150, %xmm3, %xmm4, %xmm1 movq %rsi, %rdx cmpq $16, %rsi jb .LBB1_8 .LBB1_14: vmovdqa .LCPI1_2(%rip), %xmm2 vpbroadcastq .LCPI1_3(%rip), %xmm3 .p2align 4, 0x90 .LBB1_15: vmovdqu (%rcx), %xmm4 vmovdqu 16(%rcx), %xmm5 vpshufb %xmm2, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpternlogq $150, %xmm1, %xmm6, %xmm7 vpshufd $78, %xmm4, %xmm1 addq $32, %rcx addq $-32, %rdx vpshufb %xmm2, %xmm5, %xmm4 vpternlogq $150, %xmm1, %xmm7, %xmm4 vpclmulqdq $0, %xmm4, %xmm0, %xmm1 vpclmulqdq $1, %xmm4, %xmm0, %xmm5 vpclmulqdq $16, %xmm4, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm4, %xmm0, %xmm4 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm1, %xmm1 vpsrldq $8, %xmm5, %xmm5 vpclmulqdq $16, %xmm3, %xmm1, %xmm6 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm6, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm6 vpxor %xmm4, %xmm6, %xmm4 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm5, %xmm4, %xmm1 cmpq $15, %rdx ja .LBB1_15 .LBB1_7: movq %rdx, %rsi testq %rsi, %rsi jne .LBB1_9 .LBB1_20: testq %r10, %r10 je .LBB1_19 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB1_22 .LBB1_25: movq 88(%rsp), %rdx vpshufb .LCPI1_0(%rip), %xmm23, %xmm5 vpaddd .LCPI1_1(%rip), %xmm5, %xmm2 cmpq $96, %r10 jb .LBB1_26 vmovdqa64 .LCPI1_2(%rip), %xmm22 vpshufb %xmm22, %xmm2, %xmm0 vpaddd .LCPI1_4(%rip), %xmm5, %xmm2 vpshufb %xmm22, %xmm2, %xmm2 vpaddd .LCPI1_5(%rip), %xmm5, %xmm4 vpshufb %xmm22, %xmm4, %xmm6 vpaddd .LCPI1_6(%rip), %xmm5, %xmm4 vpshufb %xmm22, %xmm4, %xmm7 vpaddd .LCPI1_7(%rip), %xmm5, %xmm4 vpshufb %xmm22, %xmm4, %xmm8 vpaddd .LCPI1_8(%rip), %xmm5, %xmm4 vpshufb %xmm22, %xmm4, %xmm9 vmovdqa (%rdi), %xmm4 vmovdqa 16(%rdi), %xmm11 vmovdqa 32(%rdi), %xmm3 vmovdqa 48(%rdi), %xmm10 vpxor %xmm0, %xmm4, %xmm0 vpxor %xmm2, %xmm4, %xmm2 vpxor %xmm6, %xmm4, %xmm6 vpxor %xmm7, %xmm4, %xmm7 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm4, %xmm9, %xmm9 vmovdqa64 %xmm11, %xmm18 #APP vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 vaesenc %xmm11, %xmm8, %xmm8 vaesenc %xmm11, %xmm9, %xmm9 #NO_APP #APP vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm9, %xmm9 #NO_APP vmovdqa64 %xmm10, %xmm16 #APP vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm6, %xmm6 vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm10, %xmm8, %xmm8 vaesenc %xmm10, %xmm9, %xmm9 #NO_APP vmovdqa 64(%rdi), %xmm13 #APP vaesenc %xmm13, %xmm0, %xmm0 vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm13, %xmm6, %xmm6 vaesenc %xmm13, %xmm7, %xmm7 vaesenc %xmm13, %xmm8, %xmm8 vaesenc %xmm13, %xmm9, %xmm9 #NO_APP vmovdqa 80(%rdi), %xmm14 #APP vaesenc %xmm14, %xmm0, %xmm0 vaesenc %xmm14, %xmm2, %xmm2 vaesenc %xmm14, %xmm6, %xmm6 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovdqa 96(%rdi), %xmm15 #APP vaesenc %xmm15, %xmm0, %xmm0 vaesenc %xmm15, %xmm2, %xmm2 vaesenc %xmm15, %xmm6, %xmm6 vaesenc %xmm15, %xmm7, %xmm7 vaesenc %xmm15, %xmm8, %xmm8 vaesenc %xmm15, %xmm9, %xmm9 #NO_APP vmovaps 112(%rdi), %xmm11 vmovaps %xmm11, -96(%rsp) #APP vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 vaesenc %xmm11, %xmm8, %xmm8 vaesenc %xmm11, %xmm9, %xmm9 #NO_APP vmovdqa 128(%rdi), %xmm11 #APP vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 vaesenc %xmm11, %xmm8, %xmm8 vaesenc %xmm11, %xmm9, %xmm9 #NO_APP vmovaps 144(%rdi), %xmm12 vmovaps %xmm12, -112(%rsp) #APP vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm6, %xmm6 vaesenc %xmm12, %xmm7, %xmm7 vaesenc %xmm12, %xmm8, %xmm8 vaesenc %xmm12, %xmm9, %xmm9 #NO_APP vmovdqa 160(%rdi), %xmm12 #APP vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm6, %xmm6 vaesenc %xmm12, %xmm7, %xmm7 vaesenc %xmm12, %xmm8, %xmm8 vaesenc %xmm12, %xmm9, %xmm9 #NO_APP vmovdqa 176(%rdi), %xmm10 vmovdqa64 %xmm10, %xmm19 #APP vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm6, %xmm6 vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm10, %xmm8, %xmm8 vaesenc %xmm10, %xmm9, %xmm9 #NO_APP vmovdqa 192(%rdi), %xmm10 #APP vaesenclast %xmm10, %xmm0, %xmm0 vaesenclast %xmm10, %xmm2, %xmm2 vaesenclast %xmm10, %xmm6, %xmm6 vaesenclast %xmm10, %xmm7, %xmm7 vaesenclast %xmm10, %xmm8, %xmm8 vaesenclast %xmm10, %xmm9, %xmm9 #NO_APP vpxorq (%r9), %xmm0, %xmm17 vpxorq 16(%r9), %xmm2, %xmm20 vpxorq 32(%r9), %xmm6, %xmm27 vpxorq 48(%r9), %xmm7, %xmm28 vpxorq 64(%r9), %xmm8, %xmm29 vpxor 80(%r9), %xmm9, %xmm0 leaq 96(%r9), %r9 leaq 96(%rdx), %rcx vpaddd .LCPI1_9(%rip), %xmm5, %xmm2 vmovdqu64 %xmm17, (%rdx) vmovdqu64 %xmm20, 16(%rdx) vmovdqu64 %xmm27, 32(%rdx) vmovdqu64 %xmm28, 48(%rdx) leaq -96(%r10), %rax vmovdqu64 %xmm29, 64(%rdx) vmovdqu %xmm0, 80(%rdx) cmpq $96, %rax jb .LBB1_37 vmovdqa64 %xmm23, -128(%rsp) vmovaps 208(%rdi), %xmm5 vmovaps %xmm5, 48(%rsp) vmovdqa %xmm3, %xmm5 vmovaps 224(%rdi), %xmm3 vmovaps %xmm3, 32(%rsp) vmovaps 240(%rdi), %xmm3 vmovaps %xmm3, 16(%rsp) vmovaps 256(%rdi), %xmm3 vmovaps %xmm3, (%rsp) vmovaps 272(%rdi), %xmm3 vmovaps %xmm3, -16(%rsp) vmovdqa64 %xmm18, -32(%rsp) vmovdqa 288(%rdi), %xmm3 vmovdqa %xmm3, -48(%rsp) vmovdqa %xmm5, -64(%rsp) vmovdqa64 %xmm16, -80(%rsp) vmovdqa64 %xmm13, %xmm25 vmovdqa64 %xmm10, %xmm24 vmovdqa64 %xmm14, %xmm31 vmovdqa64 %xmm15, %xmm21 vmovaps -96(%rsp), %xmm26 vmovdqa64 %xmm11, %xmm16 vmovdqa64 -112(%rsp), %xmm18 vmovdqa64 %xmm12, %xmm23 .p2align 4, 0x90 .LBB1_35: vpshufb %xmm22, %xmm2, %xmm5 vpaddd .LCPI1_1(%rip), %xmm2, %xmm6 vpshufb %xmm22, %xmm6, %xmm6 vpaddd .LCPI1_4(%rip), %xmm2, %xmm7 vpshufb %xmm22, %xmm7, %xmm7 vpaddd .LCPI1_5(%rip), %xmm2, %xmm8 vpshufb %xmm22, %xmm8, %xmm14 vpaddd .LCPI1_6(%rip), %xmm2, %xmm8 vpshufb %xmm22, %xmm8, %xmm15 vpaddd .LCPI1_7(%rip), %xmm2, %xmm8 vpshufb %xmm22, %xmm8, %xmm30 vpshufb %xmm22, %xmm0, %xmm8 vpxor %xmm5, %xmm4, %xmm11 vpxor %xmm6, %xmm4, %xmm12 vpxor %xmm7, %xmm4, %xmm13 vpxor %xmm4, %xmm14, %xmm14 vpxor %xmm4, %xmm15, %xmm15 vpxorq %xmm30, %xmm4, %xmm0 vmovaps -32(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm0, %xmm0 #NO_APP vpxor %xmm6, %xmm6, %xmm6 vpxor %xmm7, %xmm7, %xmm7 vpxor %xmm5, %xmm5, %xmm5 vmovaps 48(%rsp), %xmm10 vmovaps -64(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm0, %xmm0 vpclmulqdq $16, %xmm10, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm10, %xmm8, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $17, %xmm10, %xmm8, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $1, %xmm10, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 #NO_APP vpshufb %xmm22, %xmm29, %xmm8 vmovaps 32(%rsp), %xmm3 vmovaps -80(%rsp), %xmm10 #APP vaesenc %xmm10, %xmm11, %xmm11 vaesenc %xmm10, %xmm12, %xmm12 vaesenc %xmm10, %xmm13, %xmm13 vaesenc %xmm10, %xmm14, %xmm14 vaesenc %xmm10, %xmm15, %xmm15 vaesenc %xmm10, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $17, %xmm3, %xmm8, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $1, %xmm3, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 #NO_APP vpshufb %xmm22, %xmm28, %xmm8 vmovdqa64 %xmm25, %xmm3 #APP vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm0, %xmm0 #NO_APP vmovdqa64 %xmm31, %xmm3 vmovaps 16(%rsp), %xmm10 #APP vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm0, %xmm0 vpclmulqdq $16, %xmm10, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm10, %xmm8, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $17, %xmm10, %xmm8, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $1, %xmm10, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 #NO_APP vpshufb %xmm22, %xmm27, %xmm8 vmovdqa64 %xmm21, %xmm3 #APP vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm0, %xmm0 #NO_APP vmovaps (%rsp), %xmm3 vmovaps %xmm26, %xmm10 #APP vaesenc %xmm10, %xmm11, %xmm11 vaesenc %xmm10, %xmm12, %xmm12 vaesenc %xmm10, %xmm13, %xmm13 vaesenc %xmm10, %xmm14, %xmm14 vaesenc %xmm10, %xmm15, %xmm15 vaesenc %xmm10, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $17, %xmm3, %xmm8, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $1, %xmm3, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 #NO_APP vpshufb %xmm22, %xmm20, %xmm8 vmovdqa64 %xmm16, %xmm3 #APP vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm0, %xmm0 #NO_APP vmovaps -16(%rsp), %xmm3 vmovdqa64 %xmm18, %xmm10 #APP vaesenc %xmm10, %xmm11, %xmm11 vaesenc %xmm10, %xmm12, %xmm12 vaesenc %xmm10, %xmm13, %xmm13 vaesenc %xmm10, %xmm14, %xmm14 vaesenc %xmm10, %xmm15, %xmm15 vaesenc %xmm10, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $17, %xmm3, %xmm8, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $1, %xmm3, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 #NO_APP vpshufb %xmm22, %xmm17, %xmm8 vpxor %xmm1, %xmm8, %xmm1 vmovdqa64 %xmm23, %xmm9 vmovdqa -48(%rsp), %xmm3 #APP vaesenc %xmm9, %xmm11, %xmm11 vaesenc %xmm9, %xmm12, %xmm12 vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm1, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm3, %xmm1, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm3, %xmm1, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $1, %xmm3, %xmm1, %xmm8 vpxor %xmm7, %xmm8, %xmm7 #NO_APP vpxor %xmm3, %xmm3, %xmm3 vpunpcklqdq %xmm7, %xmm3, %xmm1 vpxor %xmm1, %xmm6, %xmm6 vpunpckhqdq %xmm3, %xmm7, %xmm1 vmovdqa64 %xmm19, %xmm3 #APP vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm0, %xmm0 #NO_APP vmovdqa64 %xmm24, %xmm7 #APP vaesenclast %xmm7, %xmm11, %xmm11 vaesenclast %xmm7, %xmm12, %xmm12 vaesenclast %xmm7, %xmm13, %xmm13 vaesenclast %xmm7, %xmm14, %xmm14 vaesenclast %xmm7, %xmm15, %xmm15 vaesenclast %xmm7, %xmm0, %xmm0 #NO_APP vpxorq (%r9), %xmm11, %xmm17 vpxorq 16(%r9), %xmm12, %xmm20 vpxorq 32(%r9), %xmm13, %xmm27 vpxorq 48(%r9), %xmm14, %xmm28 vpxorq 64(%r9), %xmm15, %xmm29 vpxor 80(%r9), %xmm0, %xmm0 vpxor %xmm1, %xmm5, %xmm1 vpbroadcastq .LCPI1_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm6, %xmm5 vpshufd $78, %xmm6, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $16, %xmm3, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpternlogq $150, %xmm6, %xmm5, %xmm1 addq $96, %r9 vmovdqu64 %xmm17, (%rcx) vmovdqu64 %xmm20, 16(%rcx) vmovdqu64 %xmm27, 32(%rcx) vmovdqu64 %xmm28, 48(%rcx) vmovdqu64 %xmm29, 64(%rcx) vmovdqu %xmm0, 80(%rcx) addq $96, %rcx addq $-96, %rax vpaddd .LCPI1_8(%rip), %xmm2, %xmm2 cmpq $95, %rax ja .LBB1_35 vmovdqa64 -128(%rsp), %xmm23 .LBB1_37: vpshufb %xmm22, %xmm17, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpshufb %xmm22, %xmm20, %xmm4 vpshufb %xmm22, %xmm27, %xmm5 vpshufb %xmm22, %xmm28, %xmm6 vpshufb %xmm22, %xmm29, %xmm7 vpshufb %xmm22, %xmm0, %xmm0 vmovdqa 208(%rdi), %xmm3 vmovdqa 224(%rdi), %xmm8 vmovdqa 240(%rdi), %xmm9 vmovdqa 256(%rdi), %xmm10 vmovdqa 272(%rdi), %xmm11 vmovdqa 288(%rdi), %xmm12 vpclmulqdq $0, %xmm0, %xmm3, %xmm13 vpclmulqdq $1, %xmm0, %xmm3, %xmm14 vpclmulqdq $16, %xmm0, %xmm3, %xmm15 vpxor %xmm14, %xmm15, %xmm14 vpclmulqdq $17, %xmm0, %xmm3, %xmm0 vpclmulqdq $0, %xmm7, %xmm8, %xmm3 vpclmulqdq $1, %xmm7, %xmm8, %xmm15 vpclmulqdq $16, %xmm7, %xmm8, %xmm17 vpternlogq $150, %xmm15, %xmm14, %xmm17 vpclmulqdq $17, %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm6, %xmm9, %xmm8 vpternlogq $150, %xmm13, %xmm3, %xmm8 vpclmulqdq $1, %xmm6, %xmm9, %xmm3 vpclmulqdq $16, %xmm6, %xmm9, %xmm13 vpternlogq $150, %xmm3, %xmm17, %xmm13 vpclmulqdq $17, %xmm6, %xmm9, %xmm3 vpternlogq $150, %xmm0, %xmm7, %xmm3 vpclmulqdq $0, %xmm5, %xmm10, %xmm0 vpclmulqdq $1, %xmm5, %xmm10, %xmm6 vpclmulqdq $16, %xmm5, %xmm10, %xmm7 vpternlogq $150, %xmm6, %xmm13, %xmm7 vpclmulqdq $17, %xmm5, %xmm10, %xmm5 vpclmulqdq $0, %xmm4, %xmm11, %xmm6 vpternlogq $150, %xmm0, %xmm8, %xmm6 vpclmulqdq $1, %xmm4, %xmm11, %xmm0 vpclmulqdq $16, %xmm4, %xmm11, %xmm8 vpternlogq $150, %xmm0, %xmm7, %xmm8 vpclmulqdq $17, %xmm4, %xmm11, %xmm0 vpternlogq $150, %xmm5, %xmm3, %xmm0 vpclmulqdq $0, %xmm1, %xmm12, %xmm3 vpclmulqdq $1, %xmm1, %xmm12, %xmm4 vpclmulqdq $16, %xmm1, %xmm12, %xmm5 vpternlogq $150, %xmm4, %xmm8, %xmm5 vpclmulqdq $17, %xmm1, %xmm12, %xmm1 vpslldq $8, %xmm5, %xmm4 vpternlogq $150, %xmm3, %xmm6, %xmm4 vpsrldq $8, %xmm5, %xmm3 vpbroadcastq .LCPI1_3(%rip), %xmm5 vpclmulqdq $16, %xmm5, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm5, %xmm4, %xmm5 vpternlogq $150, %xmm1, %xmm0, %xmm5 vpshufd $78, %xmm4, %xmm1 vpternlogq $150, %xmm3, %xmm5, %xmm1 movq %rcx, %rdx cmpq $16, %rax jae .LBB1_38 .LBB1_28: movq %rdx, %rcx movq %r9, %rsi jmp .LBB1_29 .LBB1_26: movq %r10, %rax cmpq $16, %rax jb .LBB1_28 .LBB1_38: vmovdqa (%rdi), %xmm0 vmovdqa 16(%rdi), %xmm3 vmovdqa 32(%rdi), %xmm4 vmovdqa 48(%rdi), %xmm5 vmovdqa 64(%rdi), %xmm6 vmovdqa 80(%rdi), %xmm7 vmovdqa 96(%rdi), %xmm8 vmovdqa 112(%rdi), %xmm9 vmovdqa 128(%rdi), %xmm10 vmovdqa 144(%rdi), %xmm11 vmovdqa 160(%rdi), %xmm12 vmovdqa 176(%rdi), %xmm13 vmovdqa 192(%rdi), %xmm14 vmovdqa 208(%rdi), %xmm15 vmovdqa64 .LCPI1_2(%rip), %xmm17 vpmovsxbq .LCPI1_12(%rip), %xmm18 vpbroadcastq .LCPI1_3(%rip), %xmm19 .p2align 4, 0x90 .LBB1_39: leaq 16(%r9), %rsi leaq 16(%rdx), %rcx addq $-16, %rax vpshufb %xmm17, %xmm2, %xmm20 vpxorq %xmm20, %xmm0, %xmm20 vaesenc %xmm3, %xmm20, %xmm20 vaesenc %xmm4, %xmm20, %xmm20 vaesenc %xmm5, %xmm20, %xmm20 vaesenc %xmm6, %xmm20, %xmm20 vaesenc %xmm7, %xmm20, %xmm20 vaesenc %xmm8, %xmm20, %xmm20 vaesenc %xmm9, %xmm20, %xmm20 vaesenc %xmm10, %xmm20, %xmm20 vaesenc %xmm11, %xmm20, %xmm20 vaesenc %xmm12, %xmm20, %xmm20 vaesenc %xmm13, %xmm20, %xmm20 vaesenclast %xmm14, %xmm20, %xmm20 vpaddd %xmm18, %xmm2, %xmm2 vpxorq (%r9), %xmm20, %xmm20 vmovdqu64 %xmm20, (%rdx) vpshufb %xmm17, %xmm20, %xmm20 vpxorq %xmm20, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm15, %xmm20 vpclmulqdq $1, %xmm1, %xmm15, %xmm21 vpclmulqdq $16, %xmm1, %xmm15, %xmm22 vpxorq %xmm21, %xmm22, %xmm21 vpclmulqdq $17, %xmm1, %xmm15, %xmm1 vpslldq $8, %xmm21, %xmm22 vpxorq %xmm22, %xmm20, %xmm20 vpsrldq $8, %xmm21, %xmm21 vpclmulqdq $16, %xmm19, %xmm20, %xmm22 vpshufd $78, %xmm20, %xmm20 vpxorq %xmm20, %xmm22, %xmm20 vpclmulqdq $16, %xmm19, %xmm20, %xmm22 vpxorq %xmm1, %xmm22, %xmm22 vpshufd $78, %xmm20, %xmm1 vpternlogq $150, %xmm21, %xmm22, %xmm1 movq %rcx, %rdx movq %rsi, %r9 cmpq $15, %rax ja .LBB1_39 .LBB1_29: testq %rax, %rax je .LBB1_19 movl $-1, %edx bzhil %eax, %edx, %eax kmovd %eax, %k1 vmovdqu8 (%rsi), %xmm0 {%k1} {z} vpshufb .LCPI1_2(%rip), %xmm2, %xmm2 vpxor (%rdi), %xmm2, %xmm2 vaesenc 16(%rdi), %xmm2, %xmm2 vaesenc 32(%rdi), %xmm2, %xmm2 vaesenc 48(%rdi), %xmm2, %xmm2 vaesenc 64(%rdi), %xmm2, %xmm2 vaesenc 80(%rdi), %xmm2, %xmm2 vaesenc 96(%rdi), %xmm2, %xmm2 vaesenc 112(%rdi), %xmm2, %xmm2 vaesenc 128(%rdi), %xmm2, %xmm2 vaesenc 144(%rdi), %xmm2, %xmm2 vaesenc 160(%rdi), %xmm2, %xmm2 vaesenc 176(%rdi), %xmm2, %xmm2 vaesenclast 192(%rdi), %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vmovdqu8 %xmm0, (%rcx) {%k1} testq %r10, %r10 je .LBB1_10 vmovdqu8 %xmm0, %xmm0 {%k1} {z} vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vmovdqa 208(%rdi), %xmm2 jmp .LBB1_32 .LBB1_10: vmovdqa 208(%rdi), %xmm2 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 .LBB1_32: vpxor %xmm0, %xmm1, %xmm3 vpclmulqdq $0, %xmm3, %xmm2, %xmm0 vpclmulqdq $1, %xmm3, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm3, %xmm2, %xmm2 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm2 vpbroadcastq .LCPI1_3(%rip), %xmm1 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm1 vpternlogq $150, %xmm3, %xmm2, %xmm1 .LBB1_19: movq 104(%rsp), %rax vmovdqa 208(%rdi), %xmm0 vmovq %r8, %xmm2 vmovq %r10, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI1_3(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpxorq (%rdi), %xmm23, %xmm4 vaesenc 16(%rdi), %xmm4, %xmm4 vaesenc 32(%rdi), %xmm4, %xmm4 vaesenc 48(%rdi), %xmm4, %xmm4 vaesenc 64(%rdi), %xmm4, %xmm4 vaesenc 80(%rdi), %xmm4, %xmm4 vaesenc 96(%rdi), %xmm4, %xmm4 vaesenc 112(%rdi), %xmm4, %xmm4 vaesenc 128(%rdi), %xmm4, %xmm4 vaesenc 144(%rdi), %xmm4, %xmm4 vaesenc 160(%rdi), %xmm4, %xmm4 vaesenc 176(%rdi), %xmm4, %xmm4 vaesenclast 192(%rdi), %xmm4, %xmm4 vpxor %xmm0, %xmm2, %xmm0 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpshufb .LCPI1_10(%rip), %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpshufb .LCPI1_11(%rip), %xmm1, %xmm1 vpternlogq $150, %xmm0, %xmm4, %xmm1 vmovdqu %xmm1, (%rax) movl $1, %eax .LBB1_22: addq $64, %rsp .cfi_def_cfa_offset 16 popq %rbx .cfi_def_cfa_offset 8 retq .Lfunc_end1: .size haberdashery_aes192gcm_tigerlake_encrypt, .Lfunc_end1-haberdashery_aes192gcm_tigerlake_encrypt .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_1: .long 1 .long 0 .long 0 .long 0 .LCPI2_2: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_4: .long 2 .long 0 .long 0 .long 0 .LCPI2_5: .long 3 .long 0 .long 0 .long 0 .LCPI2_6: .long 4 .long 0 .long 0 .long 0 .LCPI2_7: .long 5 .long 0 .long 0 .long 0 .LCPI2_8: .long 6 .long 0 .long 0 .long 0 .LCPI2_9: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI2_10: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI2_3: .quad -4467570830351532032 .section .rodata,"a",@progbits .LCPI2_11: .byte 1 .byte 0 .section .text.haberdashery_aes192gcm_tigerlake_decrypt,"ax",@progbits .globl haberdashery_aes192gcm_tigerlake_decrypt .p2align 4, 0x90 .type haberdashery_aes192gcm_tigerlake_decrypt,@function haberdashery_aes192gcm_tigerlake_decrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r14 .cfi_def_cfa_offset 24 pushq %rbx .cfi_def_cfa_offset 32 subq $64, %rsp .cfi_def_cfa_offset 96 .cfi_offset %rbx, -32 .cfi_offset %r14, -24 .cfi_offset %rbp, -16 movq 96(%rsp), %r10 xorl %eax, %eax cmpq 128(%rsp), %r10 jne .LBB2_5 cmpq $16, 112(%rsp) setne %r11b movabsq $2305843009213693950, %rbx cmpq %rbx, %r8 seta %bl movq %r10, %r14 shrq $5, %r14 cmpq $2147483647, %r14 setae %bpl orb %r11b, %bl orb %bpl, %bl cmpq $12, %rdx setne %dl orb %bl, %dl jne .LBB2_5 vmovd (%rsi), %xmm0 vpinsrd $1, 4(%rsi), %xmm0, %xmm0 vpinsrd $2, 8(%rsi), %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm16 vpxor %xmm1, %xmm1, %xmm1 testq %r8, %r8 je .LBB2_3 cmpq $96, %r8 jb .LBB2_7 vmovdqa 208(%rdi), %xmm0 vmovdqa 224(%rdi), %xmm2 vmovdqa 240(%rdi), %xmm3 vmovdqa 256(%rdi), %xmm4 vmovdqa 272(%rdi), %xmm5 vmovdqa 288(%rdi), %xmm6 vmovdqa .LCPI2_2(%rip), %xmm7 vpbroadcastq .LCPI2_3(%rip), %xmm8 movq %r8, %rdx .p2align 4, 0x90 .LBB2_19: vmovdqu (%rcx), %xmm9 vmovdqu 16(%rcx), %xmm10 vmovdqu 32(%rcx), %xmm11 vmovdqu 48(%rcx), %xmm12 vmovdqu 64(%rcx), %xmm13 vmovdqu 80(%rcx), %xmm14 addq $96, %rcx addq $-96, %rdx vpshufb %xmm7, %xmm9, %xmm9 vpxor %xmm1, %xmm9, %xmm1 vpshufb %xmm7, %xmm10, %xmm9 vpshufb %xmm7, %xmm11, %xmm10 vpshufb %xmm7, %xmm12, %xmm11 vpshufb %xmm7, %xmm13, %xmm12 vpshufb %xmm7, %xmm14, %xmm13 vpclmulqdq $0, %xmm13, %xmm0, %xmm14 vpclmulqdq $1, %xmm13, %xmm0, %xmm15 vpclmulqdq $16, %xmm13, %xmm0, %xmm17 vpxorq %xmm15, %xmm17, %xmm15 vpclmulqdq $17, %xmm13, %xmm0, %xmm13 vpclmulqdq $0, %xmm12, %xmm2, %xmm17 vpclmulqdq $1, %xmm12, %xmm2, %xmm18 vpclmulqdq $16, %xmm12, %xmm2, %xmm19 vpternlogq $150, %xmm18, %xmm15, %xmm19 vpclmulqdq $17, %xmm12, %xmm2, %xmm12 vpclmulqdq $0, %xmm11, %xmm3, %xmm15 vpternlogq $150, %xmm14, %xmm17, %xmm15 vpclmulqdq $1, %xmm11, %xmm3, %xmm14 vpclmulqdq $16, %xmm11, %xmm3, %xmm17 vpternlogq $150, %xmm14, %xmm19, %xmm17 vpclmulqdq $17, %xmm11, %xmm3, %xmm11 vpternlogq $150, %xmm13, %xmm12, %xmm11 vpclmulqdq $0, %xmm10, %xmm4, %xmm12 vpclmulqdq $1, %xmm10, %xmm4, %xmm13 vpclmulqdq $16, %xmm10, %xmm4, %xmm14 vpternlogq $150, %xmm13, %xmm17, %xmm14 vpclmulqdq $17, %xmm10, %xmm4, %xmm10 vpclmulqdq $0, %xmm9, %xmm5, %xmm13 vpternlogq $150, %xmm12, %xmm15, %xmm13 vpclmulqdq $1, %xmm9, %xmm5, %xmm12 vpclmulqdq $16, %xmm9, %xmm5, %xmm15 vpternlogq $150, %xmm12, %xmm14, %xmm15 vpclmulqdq $17, %xmm9, %xmm5, %xmm9 vpternlogq $150, %xmm10, %xmm11, %xmm9 vpclmulqdq $0, %xmm1, %xmm6, %xmm10 vpclmulqdq $1, %xmm1, %xmm6, %xmm11 vpclmulqdq $16, %xmm1, %xmm6, %xmm12 vpternlogq $150, %xmm11, %xmm15, %xmm12 vpclmulqdq $17, %xmm1, %xmm6, %xmm1 vpslldq $8, %xmm12, %xmm11 vpternlogq $150, %xmm10, %xmm13, %xmm11 vpsrldq $8, %xmm12, %xmm10 vpclmulqdq $16, %xmm8, %xmm11, %xmm12 vpshufd $78, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $16, %xmm8, %xmm11, %xmm12 vpternlogq $150, %xmm1, %xmm9, %xmm12 vpshufd $78, %xmm11, %xmm1 vpternlogq $150, %xmm10, %xmm12, %xmm1 cmpq $95, %rdx ja .LBB2_19 cmpq $16, %rdx jae .LBB2_13 jmp .LBB2_9 .LBB2_7: movq %r8, %rdx cmpq $16, %rdx jb .LBB2_9 .LBB2_13: vmovdqa 208(%rdi), %xmm0 leaq -16(%rdx), %rsi testb $16, %sil je .LBB2_14 cmpq $16, %rsi jae .LBB2_16 .LBB2_10: testq %rsi, %rsi je .LBB2_3 .LBB2_11: movl $-1, %edx bzhil %esi, %edx, %edx kmovd %edx, %k1 vmovdqu8 (%rcx), %xmm0 {%k1} {z} testq %r10, %r10 je .LBB2_12 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB2_5 vmovdqa 208(%rdi), %xmm2 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm0, %xmm2, %xmm1 vpclmulqdq $1, %xmm0, %xmm2, %xmm3 vpclmulqdq $16, %xmm0, %xmm2, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm2, %xmm0 vpslldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI2_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm2, %xmm0, %xmm1 jmp .LBB2_22 .LBB2_14: vmovdqu (%rcx), %xmm2 addq $16, %rcx vpshufb .LCPI2_2(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpbroadcastq .LCPI2_3(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm4 vpshufd $78, %xmm2, %xmm1 vpternlogq $150, %xmm3, %xmm4, %xmm1 movq %rsi, %rdx cmpq $16, %rsi jb .LBB2_10 .LBB2_16: vmovdqa .LCPI2_2(%rip), %xmm2 vpbroadcastq .LCPI2_3(%rip), %xmm3 .p2align 4, 0x90 .LBB2_17: vmovdqu (%rcx), %xmm4 vmovdqu 16(%rcx), %xmm5 vpshufb %xmm2, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpternlogq $150, %xmm1, %xmm6, %xmm7 vpshufd $78, %xmm4, %xmm1 addq $32, %rcx addq $-32, %rdx vpshufb %xmm2, %xmm5, %xmm4 vpternlogq $150, %xmm1, %xmm7, %xmm4 vpclmulqdq $0, %xmm4, %xmm0, %xmm1 vpclmulqdq $1, %xmm4, %xmm0, %xmm5 vpclmulqdq $16, %xmm4, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm4, %xmm0, %xmm4 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm1, %xmm1 vpsrldq $8, %xmm5, %xmm5 vpclmulqdq $16, %xmm3, %xmm1, %xmm6 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm6, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm6 vpxor %xmm4, %xmm6, %xmm4 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm5, %xmm4, %xmm1 cmpq $15, %rdx ja .LBB2_17 .LBB2_9: movq %rdx, %rsi testq %rsi, %rsi jne .LBB2_11 .LBB2_3: testq %r10, %r10 je .LBB2_29 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB2_5 .LBB2_22: movq 120(%rsp), %rax vpshufb .LCPI2_0(%rip), %xmm16, %xmm0 vpaddd .LCPI2_1(%rip), %xmm0, %xmm2 cmpq $96, %r10 jb .LBB2_23 vmovdqa64 %xmm16, -128(%rsp) vmovdqa (%rdi), %xmm3 vmovaps 16(%rdi), %xmm0 vmovaps %xmm0, 48(%rsp) vmovaps 32(%rdi), %xmm0 vmovaps %xmm0, 32(%rsp) vmovaps 48(%rdi), %xmm0 vmovaps %xmm0, 16(%rsp) vmovaps 64(%rdi), %xmm0 vmovaps %xmm0, (%rsp) vmovaps 80(%rdi), %xmm0 vmovaps %xmm0, -16(%rsp) vmovaps 96(%rdi), %xmm0 vmovaps %xmm0, -32(%rsp) vmovaps 112(%rdi), %xmm0 vmovaps %xmm0, -48(%rsp) vmovaps 128(%rdi), %xmm0 vmovaps %xmm0, -64(%rsp) vmovaps 144(%rdi), %xmm0 vmovaps %xmm0, -80(%rsp) vmovaps 160(%rdi), %xmm0 vmovaps %xmm0, -96(%rsp) vmovdqa 176(%rdi), %xmm0 vmovdqa %xmm0, -112(%rsp) vmovdqa64 192(%rdi), %xmm21 vmovapd 208(%rdi), %xmm22 vmovdqa64 224(%rdi), %xmm23 vmovaps 240(%rdi), %xmm16 vmovdqa64 256(%rdi), %xmm18 vmovdqa64 .LCPI2_2(%rip), %xmm17 vpxord %xmm24, %xmm24, %xmm24 vpbroadcastq .LCPI2_3(%rip), %xmm25 movq %r10, %rcx vmovdqa64 272(%rdi), %xmm19 vmovdqa64 288(%rdi), %xmm20 .p2align 4, 0x90 .LBB2_31: vmovdqu64 (%r9), %xmm26 vmovdqu64 16(%r9), %xmm27 vmovdqu64 32(%r9), %xmm28 vmovdqu64 48(%r9), %xmm29 vmovdqu64 64(%r9), %xmm30 vmovdqu64 80(%r9), %xmm31 vpshufb %xmm17, %xmm2, %xmm0 vpaddd .LCPI2_1(%rip), %xmm2, %xmm4 vpshufb %xmm17, %xmm4, %xmm4 vpaddd .LCPI2_4(%rip), %xmm2, %xmm9 vpshufb %xmm17, %xmm9, %xmm11 vpaddd .LCPI2_5(%rip), %xmm2, %xmm9 vpshufb %xmm17, %xmm9, %xmm12 vpaddd .LCPI2_6(%rip), %xmm2, %xmm9 vpshufb %xmm17, %xmm9, %xmm13 vpaddd .LCPI2_7(%rip), %xmm2, %xmm9 vpshufb %xmm17, %xmm9, %xmm14 vpshufb %xmm17, %xmm31, %xmm5 vpxor %xmm0, %xmm3, %xmm9 vpxor %xmm4, %xmm3, %xmm10 vpxor %xmm3, %xmm11, %xmm11 vpxor %xmm3, %xmm12, %xmm12 vpxor %xmm3, %xmm13, %xmm13 vpxor %xmm3, %xmm14, %xmm14 vmovaps 48(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm9, %xmm9 vaesenc %xmm0, %xmm10, %xmm10 vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm12, %xmm12 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 #NO_APP vxorps %xmm0, %xmm0, %xmm0 vpxor %xmm4, %xmm4, %xmm4 vpxor %xmm15, %xmm15, %xmm15 vmovaps 32(%rsp), %xmm7 vmovapd %xmm22, %xmm8 #APP vaesenc %xmm7, %xmm9, %xmm9 vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vpclmulqdq $16, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $0, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $17, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm15, %xmm15 vpclmulqdq $1, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 #NO_APP vpshufb %xmm17, %xmm30, %xmm5 vmovaps 16(%rsp), %xmm7 vmovdqa64 %xmm23, %xmm8 #APP vaesenc %xmm7, %xmm9, %xmm9 vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vpclmulqdq $16, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $0, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $17, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm15, %xmm15 vpclmulqdq $1, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 #NO_APP vpshufb %xmm17, %xmm29, %xmm5 vmovaps (%rsp), %xmm6 #APP vaesenc %xmm6, %xmm9, %xmm9 vaesenc %xmm6, %xmm10, %xmm10 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm14, %xmm14 #NO_APP vmovaps -16(%rsp), %xmm7 vmovaps %xmm16, %xmm8 #APP vaesenc %xmm7, %xmm9, %xmm9 vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vpclmulqdq $16, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $0, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $17, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm15, %xmm15 vpclmulqdq $1, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 #NO_APP vpshufb %xmm17, %xmm28, %xmm5 vmovaps -32(%rsp), %xmm6 #APP vaesenc %xmm6, %xmm9, %xmm9 vaesenc %xmm6, %xmm10, %xmm10 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm14, %xmm14 #NO_APP vmovaps -48(%rsp), %xmm7 vmovdqa64 %xmm18, %xmm8 #APP vaesenc %xmm7, %xmm9, %xmm9 vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vpclmulqdq $16, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $0, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $17, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm15, %xmm15 vpclmulqdq $1, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 #NO_APP vpshufb %xmm17, %xmm27, %xmm5 vmovaps -64(%rsp), %xmm6 #APP vaesenc %xmm6, %xmm9, %xmm9 vaesenc %xmm6, %xmm10, %xmm10 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm14, %xmm14 #NO_APP vmovaps -80(%rsp), %xmm7 vmovdqa64 %xmm19, %xmm8 #APP vaesenc %xmm7, %xmm9, %xmm9 vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vpclmulqdq $16, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $0, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $17, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm15, %xmm15 vpclmulqdq $1, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 #NO_APP vpshufb %xmm17, %xmm26, %xmm5 vpxor %xmm5, %xmm1, %xmm1 vmovaps -96(%rsp), %xmm6 vmovdqa64 %xmm20, %xmm7 #APP vaesenc %xmm6, %xmm9, %xmm9 vaesenc %xmm6, %xmm10, %xmm10 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm14, %xmm14 vpclmulqdq $16, %xmm7, %xmm1, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $0, %xmm7, %xmm1, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpclmulqdq $17, %xmm7, %xmm1, %xmm5 vpxor %xmm5, %xmm15, %xmm15 vpclmulqdq $1, %xmm7, %xmm1, %xmm5 vpxor %xmm5, %xmm4, %xmm4 #NO_APP vpunpcklqdq %xmm4, %xmm24, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpunpckhqdq %xmm24, %xmm4, %xmm1 vpxor %xmm1, %xmm15, %xmm1 vmovaps -112(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm9, %xmm9 vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 #NO_APP vmovdqa64 %xmm21, %xmm4 #APP vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm4, %xmm10, %xmm10 vaesenclast %xmm4, %xmm11, %xmm11 vaesenclast %xmm4, %xmm12, %xmm12 vaesenclast %xmm4, %xmm13, %xmm13 vaesenclast %xmm4, %xmm14, %xmm14 #NO_APP vpxorq %xmm26, %xmm9, %xmm4 vpxorq %xmm27, %xmm10, %xmm5 vpxorq %xmm28, %xmm11, %xmm6 vpxorq %xmm29, %xmm12, %xmm9 vpxorq %xmm30, %xmm13, %xmm10 vpxorq %xmm31, %xmm14, %xmm11 vpclmulqdq $16, %xmm25, %xmm0, %xmm12 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm0 vmovdqu %xmm4, (%rax) vmovdqu %xmm5, 16(%rax) vmovdqu %xmm6, 32(%rax) vmovdqu %xmm9, 48(%rax) vmovdqu %xmm10, 64(%rax) vmovdqu %xmm11, 80(%rax) vpclmulqdq $16, %xmm25, %xmm0, %xmm4 vpshufd $78, %xmm0, %xmm0 vpternlogq $150, %xmm4, %xmm0, %xmm1 addq $96, %r9 addq $96, %rax addq $-96, %rcx vpaddd .LCPI2_8(%rip), %xmm2, %xmm2 cmpq $95, %rcx ja .LBB2_31 vmovdqa64 -128(%rsp), %xmm16 cmpq $16, %rcx jae .LBB2_33 .LBB2_25: movq %rax, %rdx jmp .LBB2_26 .LBB2_23: movq %r10, %rcx cmpq $16, %rcx jb .LBB2_25 .LBB2_33: vmovdqa 208(%rdi), %xmm0 vmovdqa (%rdi), %xmm3 vmovdqa 16(%rdi), %xmm4 vmovdqa 32(%rdi), %xmm5 vmovdqa 48(%rdi), %xmm6 vmovdqa 64(%rdi), %xmm7 vmovdqa 80(%rdi), %xmm8 vmovdqa 96(%rdi), %xmm9 vmovdqa 112(%rdi), %xmm10 vmovdqa 128(%rdi), %xmm11 vmovdqa 144(%rdi), %xmm12 vmovdqa 160(%rdi), %xmm13 vmovdqa 176(%rdi), %xmm14 vmovdqa 192(%rdi), %xmm15 vmovdqa64 .LCPI2_2(%rip), %xmm17 vpbroadcastq .LCPI2_3(%rip), %xmm18 vpmovsxbq .LCPI2_11(%rip), %xmm19 .p2align 4, 0x90 .LBB2_34: leaq 16(%rax), %rdx addq $-16, %rcx vmovdqu64 (%r9), %xmm20 addq $16, %r9 vpshufb %xmm17, %xmm20, %xmm21 vpxorq %xmm21, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm21 vpclmulqdq $1, %xmm1, %xmm0, %xmm22 vpclmulqdq $16, %xmm1, %xmm0, %xmm23 vpxorq %xmm22, %xmm23, %xmm22 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm22, %xmm23 vpxorq %xmm23, %xmm21, %xmm21 vpsrldq $8, %xmm22, %xmm22 vpclmulqdq $16, %xmm18, %xmm21, %xmm23 vpshufd $78, %xmm21, %xmm21 vpxorq %xmm21, %xmm23, %xmm21 vpclmulqdq $16, %xmm18, %xmm21, %xmm23 vpxorq %xmm1, %xmm23, %xmm23 vpshufd $78, %xmm21, %xmm1 vpternlogq $150, %xmm22, %xmm23, %xmm1 vpshufb %xmm17, %xmm2, %xmm21 vpxorq %xmm21, %xmm3, %xmm21 vaesenc %xmm4, %xmm21, %xmm21 vaesenc %xmm5, %xmm21, %xmm21 vaesenc %xmm6, %xmm21, %xmm21 vaesenc %xmm7, %xmm21, %xmm21 vaesenc %xmm8, %xmm21, %xmm21 vaesenc %xmm9, %xmm21, %xmm21 vaesenc %xmm10, %xmm21, %xmm21 vaesenc %xmm11, %xmm21, %xmm21 vaesenc %xmm12, %xmm21, %xmm21 vaesenc %xmm13, %xmm21, %xmm21 vaesenc %xmm14, %xmm21, %xmm21 vaesenclast %xmm15, %xmm21, %xmm21 vpaddd %xmm19, %xmm2, %xmm2 vpxorq %xmm20, %xmm21, %xmm20 vmovdqu64 %xmm20, (%rax) movq %rdx, %rax cmpq $15, %rcx ja .LBB2_34 .LBB2_26: testq %rcx, %rcx je .LBB2_29 movl $-1, %eax bzhil %ecx, %eax, %eax kmovd %eax, %k1 vmovdqu8 (%r9), %xmm0 {%k1} {z} vmovdqa .LCPI2_2(%rip), %xmm3 vpshufb %xmm3, %xmm2, %xmm2 vpxor (%rdi), %xmm2, %xmm2 vaesenc 16(%rdi), %xmm2, %xmm2 vaesenc 32(%rdi), %xmm2, %xmm2 vaesenc 48(%rdi), %xmm2, %xmm2 vaesenc 64(%rdi), %xmm2, %xmm2 vaesenc 80(%rdi), %xmm2, %xmm2 vaesenc 96(%rdi), %xmm2, %xmm2 vaesenc 112(%rdi), %xmm2, %xmm2 vaesenc 128(%rdi), %xmm2, %xmm2 vaesenc 144(%rdi), %xmm2, %xmm2 vaesenc 160(%rdi), %xmm2, %xmm2 vaesenc 176(%rdi), %xmm2, %xmm2 vaesenclast 192(%rdi), %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm2 vmovdqu8 %xmm2, (%rdx) {%k1} vpshufb %xmm3, %xmm0, %xmm0 vmovdqa 208(%rdi), %xmm3 jmp .LBB2_28 .LBB2_12: vmovdqa 208(%rdi), %xmm3 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 .LBB2_28: vpxor %xmm0, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm3, %xmm0 vpclmulqdq $1, %xmm1, %xmm3, %xmm2 vpclmulqdq $16, %xmm1, %xmm3, %xmm4 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $17, %xmm1, %xmm3, %xmm1 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsrldq $8, %xmm2, %xmm2 vpbroadcastq .LCPI2_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm0, %xmm4 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm0, %xmm3 vpxor %xmm1, %xmm3, %xmm3 vpshufd $78, %xmm0, %xmm1 vpternlogq $150, %xmm2, %xmm3, %xmm1 .LBB2_29: movq 104(%rsp), %rax vmovdqa 208(%rdi), %xmm0 vmovq %r8, %xmm2 vmovq %r10, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI2_3(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpxorq (%rdi), %xmm16, %xmm4 vaesenc 16(%rdi), %xmm4, %xmm4 vaesenc 32(%rdi), %xmm4, %xmm4 vaesenc 48(%rdi), %xmm4, %xmm4 vaesenc 64(%rdi), %xmm4, %xmm4 vaesenc 80(%rdi), %xmm4, %xmm4 vaesenc 96(%rdi), %xmm4, %xmm4 vaesenc 112(%rdi), %xmm4, %xmm4 vaesenc 128(%rdi), %xmm4, %xmm4 vaesenc 144(%rdi), %xmm4, %xmm4 vaesenc 160(%rdi), %xmm4, %xmm4 vaesenc 176(%rdi), %xmm4, %xmm4 vaesenclast 192(%rdi), %xmm4, %xmm4 vpshufb .LCPI2_9(%rip), %xmm1, %xmm1 vpxor %xmm0, %xmm2, %xmm0 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpshufb .LCPI2_10(%rip), %xmm3, %xmm2 vpternlogq $150, %xmm0, %xmm1, %xmm2 vpternlogq $150, (%rax), %xmm4, %xmm2 xorl %eax, %eax vptest %xmm2, %xmm2 sete %al .LBB2_5: addq $64, %rsp .cfi_def_cfa_offset 32 popq %rbx .cfi_def_cfa_offset 24 popq %r14 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end2: .size haberdashery_aes192gcm_tigerlake_decrypt, .Lfunc_end2-haberdashery_aes192gcm_tigerlake_decrypt .cfi_endproc .section .text.haberdashery_aes192gcm_tigerlake_is_supported,"ax",@progbits .globl haberdashery_aes192gcm_tigerlake_is_supported .p2align 4, 0x90 .type haberdashery_aes192gcm_tigerlake_is_supported,@function haberdashery_aes192gcm_tigerlake_is_supported: .cfi_startproc xorl %esi, %esi movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rdi cpuid xchgq %rbx, %rdi #NO_APP movl %ecx, %edi movl %edx, %r8d notl %r8d notl %edi xorl %ecx, %ecx movl $7, %eax #APP movq %rbx, %r9 cpuid xchgq %rbx, %r9 #NO_APP andl $1993871875, %edi andl $125829120, %r8d orl %edi, %r8d jne .LBB3_3 notl %r9d andl $-240189143, %r9d notl %ecx andl $415260490, %ecx orl %r9d, %ecx jne .LBB3_3 shrl $8, %edx andl $1, %edx movl %edx, %esi .LBB3_3: movl %esi, %eax retq .Lfunc_end3: .size haberdashery_aes192gcm_tigerlake_is_supported, .Lfunc_end3-haberdashery_aes192gcm_tigerlake_is_supported .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
71,653
asm/aes256gcm_streaming_broadwell.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI0_1: .quad 4294967297 .quad 4294967297 .LCPI0_8: .quad 274877907008 .quad 274877907008 .LCPI0_9: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI0_10: .zero 8 .quad -4467570830351532032 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI0_2: .long 0x00000002 .LCPI0_3: .long 0x0c0f0e0d .LCPI0_4: .long 0x00000004 .LCPI0_5: .long 0x00000008 .LCPI0_6: .long 0x00000010 .LCPI0_7: .long 0x00000020 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_11: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_streaming_broadwell_init_key,"ax",@progbits .globl haberdashery_aes256gcm_streaming_broadwell_init_key .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_broadwell_init_key,@function haberdashery_aes256gcm_streaming_broadwell_init_key: .cfi_startproc cmpq $32, %rdx jne .LBB0_2 pushq %rax .cfi_def_cfa_offset 16 vmovdqu (%rsi), %xmm5 vmovdqu 16(%rsi), %xmm4 vpslldq $4, %xmm5, %xmm0 vpslldq $8, %xmm5, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm5, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpbroadcastd .LCPI0_3(%rip), %xmm2 vpshufb %xmm2, %xmm4, %xmm1 vaesenclast .LCPI0_1(%rip), %xmm1, %xmm1 vpxor %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm8 vmovdqa %xmm8, -16(%rsp) vaesenc %xmm4, %xmm5, %xmm15 vpslldq $4, %xmm4, %xmm0 vpslldq $8, %xmm4, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm4, %xmm1 vpxor %xmm1, %xmm0, %xmm1 vpshufd $255, %xmm8, %xmm3 vpxor %xmm0, %xmm0, %xmm0 vaesenclast %xmm0, %xmm3, %xmm3 vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm9 vmovdqa %xmm9, -32(%rsp) vbroadcastss .LCPI0_2(%rip), %xmm3 vbroadcastss .LCPI0_3(%rip), %xmm1 #APP vaesenc %xmm8, %xmm15, %xmm15 vpslldq $4, %xmm8, %xmm6 vpslldq $8, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpslldq $12, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpshufb %xmm1, %xmm9, %xmm10 vaesenclast %xmm3, %xmm10, %xmm10 vpxor %xmm6, %xmm10, %xmm10 #NO_APP vmovaps %xmm10, %xmm8 vmovaps %xmm10, -48(%rsp) #APP vaesenc %xmm9, %xmm15, %xmm15 vpslldq $4, %xmm9, %xmm3 vpslldq $8, %xmm9, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpslldq $12, %xmm9, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpxor %xmm3, %xmm9, %xmm3 vpshufd $255, %xmm10, %xmm7 vaesenclast %xmm0, %xmm7, %xmm7 vpxor %xmm3, %xmm7, %xmm7 #NO_APP vbroadcastss .LCPI0_4(%rip), %xmm3 vmovaps %xmm7, %xmm9 vmovaps %xmm7, -64(%rsp) #APP vaesenc %xmm8, %xmm15, %xmm15 vpslldq $4, %xmm8, %xmm6 vpslldq $8, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpslldq $12, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpshufb %xmm1, %xmm9, %xmm10 vaesenclast %xmm3, %xmm10, %xmm10 vpxor %xmm6, %xmm10, %xmm10 #NO_APP vmovaps %xmm10, %xmm7 vmovaps %xmm10, -80(%rsp) #APP vaesenc %xmm9, %xmm15, %xmm15 vpslldq $4, %xmm9, %xmm3 vpslldq $8, %xmm9, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpslldq $12, %xmm9, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpxor %xmm3, %xmm9, %xmm3 vpshufd $255, %xmm10, %xmm8 vaesenclast %xmm0, %xmm8, %xmm8 vpxor %xmm3, %xmm8, %xmm8 #NO_APP vmovaps %xmm8, -96(%rsp) vbroadcastss .LCPI0_5(%rip), %xmm3 #APP vaesenc %xmm7, %xmm15, %xmm15 vpslldq $4, %xmm7, %xmm6 vpslldq $8, %xmm7, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpslldq $12, %xmm7, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpxor %xmm7, %xmm6, %xmm6 vpshufb %xmm1, %xmm8, %xmm10 vaesenclast %xmm3, %xmm10, %xmm10 vpxor %xmm6, %xmm10, %xmm10 #NO_APP vmovaps %xmm10, %xmm7 vmovaps %xmm10, -112(%rsp) #APP vaesenc %xmm8, %xmm15, %xmm15 vpslldq $4, %xmm8, %xmm3 vpslldq $8, %xmm8, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpslldq $12, %xmm8, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpxor %xmm3, %xmm8, %xmm3 vpshufd $255, %xmm10, %xmm9 vaesenclast %xmm0, %xmm9, %xmm9 vpxor %xmm3, %xmm9, %xmm9 #NO_APP vbroadcastss .LCPI0_6(%rip), %xmm3 #APP vaesenc %xmm7, %xmm15, %xmm15 vpslldq $4, %xmm7, %xmm6 vpslldq $8, %xmm7, %xmm11 vpxor %xmm6, %xmm11, %xmm6 vpslldq $12, %xmm7, %xmm11 vpxor %xmm6, %xmm11, %xmm6 vpxor %xmm7, %xmm6, %xmm6 vpshufb %xmm1, %xmm9, %xmm10 vaesenclast %xmm3, %xmm10, %xmm10 vpxor %xmm6, %xmm10, %xmm10 #NO_APP #APP vaesenc %xmm9, %xmm15, %xmm15 vpslldq $4, %xmm9, %xmm3 vpslldq $8, %xmm9, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpslldq $12, %xmm9, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpxor %xmm3, %xmm9, %xmm3 vpshufd $255, %xmm10, %xmm11 vaesenclast %xmm0, %xmm11, %xmm11 vpxor %xmm3, %xmm11, %xmm11 #NO_APP vbroadcastss .LCPI0_7(%rip), %xmm3 #APP vaesenc %xmm10, %xmm15, %xmm15 vpslldq $4, %xmm10, %xmm6 vpslldq $8, %xmm10, %xmm13 vpxor %xmm6, %xmm13, %xmm6 vpslldq $12, %xmm10, %xmm13 vpxor %xmm6, %xmm13, %xmm6 vpxor %xmm6, %xmm10, %xmm6 vpshufb %xmm1, %xmm11, %xmm12 vaesenclast %xmm3, %xmm12, %xmm12 vpxor %xmm6, %xmm12, %xmm12 #NO_APP vpslldq $4, %xmm11, %xmm1 vpunpcklqdq %xmm11, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vinsertps $55, %xmm11, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpshufd $255, %xmm12, %xmm3 vaesenclast %xmm0, %xmm3, %xmm3 vpxor %xmm1, %xmm11, %xmm1 vpxor %xmm1, %xmm3, %xmm13 vpslldq $4, %xmm12, %xmm1 vpunpcklqdq %xmm12, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vinsertps $55, %xmm12, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpshufb %xmm2, %xmm13, %xmm2 vaesenclast .LCPI0_8(%rip), %xmm2, %xmm2 vpxor %xmm1, %xmm12, %xmm1 vpxor %xmm1, %xmm2, %xmm2 vmovdqa %xmm2, -128(%rsp) vaesenc %xmm11, %xmm15, %xmm1 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm13, %xmm1, %xmm1 vaesenclast %xmm2, %xmm1, %xmm1 vpshufb .LCPI0_9(%rip), %xmm1, %xmm1 vpsrlq $63, %xmm1, %xmm2 vpaddq %xmm1, %xmm1, %xmm1 vpshufd $78, %xmm2, %xmm3 vpor %xmm3, %xmm1, %xmm1 vpblendd $12, %xmm2, %xmm0, %xmm0 vpsllq $63, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpsllq $62, %xmm0, %xmm2 vpsllq $57, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpxor %xmm0, %xmm1, %xmm15 vpclmulqdq $0, %xmm15, %xmm15, %xmm0 vpbroadcastq .LCPI0_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $17, %xmm15, %xmm15, %xmm1 vpshufd $78, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm2, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm1 vpclmulqdq $16, %xmm15, %xmm1, %xmm0 vpclmulqdq $1, %xmm15, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $0, %xmm15, %xmm1, %xmm3 vpslldq $8, %xmm0, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm3, %xmm6 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm6, %xmm3 vpsrldq $8, %xmm0, %xmm0 vpclmulqdq $17, %xmm15, %xmm1, %xmm6 vpxor %xmm0, %xmm6, %xmm0 vpshufd $78, %xmm3, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $16, %xmm2, %xmm3, %xmm3 vpxor %xmm3, %xmm0, %xmm3 vpclmulqdq $0, %xmm3, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm6 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm6, %xmm0 vpclmulqdq $17, %xmm3, %xmm3, %xmm6 vpshufd $78, %xmm0, %xmm14 vpxor %xmm6, %xmm14, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm1, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm14 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm0 vpclmulqdq $17, %xmm1, %xmm1, %xmm14 vpshufd $78, %xmm0, %xmm7 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $16, %xmm2, %xmm0, %xmm0 vpxor %xmm0, %xmm7, %xmm0 vpclmulqdq $16, %xmm15, %xmm0, %xmm7 vpclmulqdq $1, %xmm15, %xmm0, %xmm14 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $0, %xmm15, %xmm0, %xmm14 vpslldq $8, %xmm7, %xmm8 vpxor %xmm8, %xmm14, %xmm8 vpclmulqdq $16, %xmm2, %xmm8, %xmm14 vpshufd $78, %xmm8, %xmm8 vpxor %xmm8, %xmm14, %xmm8 vpsrldq $8, %xmm7, %xmm7 vpclmulqdq $17, %xmm15, %xmm0, %xmm14 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $16, %xmm2, %xmm8, %xmm2 vpshufd $78, %xmm8, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor %xmm2, %xmm7, %xmm2 vmovdqa %xmm5, (%rdi) vmovdqa %xmm4, 16(%rdi) vmovaps -16(%rsp), %xmm4 vmovaps %xmm4, 32(%rdi) vmovaps -32(%rsp), %xmm4 vmovaps %xmm4, 48(%rdi) vmovaps -48(%rsp), %xmm4 vmovaps %xmm4, 64(%rdi) vmovaps -64(%rsp), %xmm4 vmovaps %xmm4, 80(%rdi) vmovaps -80(%rsp), %xmm4 vmovaps %xmm4, 96(%rdi) vmovaps -96(%rsp), %xmm4 vmovaps %xmm4, 112(%rdi) vmovaps -112(%rsp), %xmm4 vmovaps %xmm4, 128(%rdi) vmovaps %xmm9, 144(%rdi) vmovaps %xmm10, 160(%rdi) vmovaps %xmm11, 176(%rdi) vmovaps %xmm12, 192(%rdi) vmovdqa %xmm13, 208(%rdi) vmovaps -128(%rsp), %xmm4 vmovaps %xmm4, 224(%rdi) vmovdqa %xmm15, 240(%rdi) vmovdqa %xmm1, 256(%rdi) vmovdqa %xmm3, 272(%rdi) vmovdqa %xmm0, 288(%rdi) vmovdqa %xmm2, 304(%rdi) vmovdqa %xmm6, 320(%rdi) addq $8, %rsp .cfi_def_cfa_offset 8 .LBB0_2: xorl %eax, %eax cmpq $32, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes256gcm_streaming_broadwell_init_key, .Lfunc_end0-haberdashery_aes256gcm_streaming_broadwell_init_key .cfi_endproc .section .text.haberdashery_aes256gcm_streaming_broadwell_is_supported,"ax",@progbits .globl haberdashery_aes256gcm_streaming_broadwell_is_supported .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_broadwell_is_supported,@function haberdashery_aes256gcm_streaming_broadwell_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $786729, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end1: .size haberdashery_aes256gcm_streaming_broadwell_is_supported, .Lfunc_end1-haberdashery_aes256gcm_streaming_broadwell_is_supported .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_1: .long 1 .long 0 .long 0 .long 0 .section .text.haberdashery_aes256gcm_streaming_broadwell_init_state,"ax",@progbits .globl haberdashery_aes256gcm_streaming_broadwell_init_state .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_broadwell_init_state,@function haberdashery_aes256gcm_streaming_broadwell_init_state: .cfi_startproc cmpq $12, %rcx jne .LBB2_2 vmovd (%rdx), %xmm0 vpinsrd $1, 4(%rdx), %xmm0, %xmm0 vpinsrd $2, 8(%rdx), %xmm0, %xmm0 movl $16777216, %eax vpinsrd $3, %eax, %xmm0, %xmm0 vpshufb .LCPI2_0(%rip), %xmm0, %xmm1 vpaddd .LCPI2_1(%rip), %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmovups %ymm2, -56(%rsp) vmovups %ymm2, -88(%rsp) movq $0, -24(%rsp) vxorps %xmm2, %xmm2, %xmm2 vmovaps %xmm2, (%rdi) vmovdqa %xmm0, 16(%rdi) vmovdqa %xmm1, 32(%rdi) vmovups -56(%rsp), %ymm0 vmovups -40(%rsp), %xmm1 movq -24(%rsp), %rax movq -16(%rsp), %rdx vmovups %ymm0, 48(%rdi) vmovups %xmm1, 64(%rdi) movq %rax, 80(%rdi) movq %rdx, 88(%rdi) vmovaps %xmm2, 96(%rdi) .LBB2_2: xorl %eax, %eax cmpq $12, %rcx sete %al vzeroupper retq .Lfunc_end2: .size haberdashery_aes256gcm_streaming_broadwell_init_state, .Lfunc_end2-haberdashery_aes256gcm_streaming_broadwell_init_state .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI3_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI3_1: .zero 8 .quad -4467570830351532032 .LCPI3_2: .zero 16 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI3_3: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_streaming_broadwell_aad_update,"ax",@progbits .globl haberdashery_aes256gcm_streaming_broadwell_aad_update .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_broadwell_aad_update,@function haberdashery_aes256gcm_streaming_broadwell_aad_update: .cfi_startproc movabsq $-2305843009213693951, %rax leaq (%rcx,%rax), %r8 incq %rax cmpq %rax, %r8 jae .LBB3_3 xorl %eax, %eax retq .LBB3_3: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $24, %rsp .cfi_def_cfa_offset 80 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 96(%rdi), %r14 addq %rcx, %r14 xorl %eax, %eax movabsq $2305843009213693950, %r8 cmpq %r8, %r14 ja .LBB3_26 cmpq $0, 104(%rdi) jne .LBB3_26 movq 80(%rdi), %r8 testq %r8, %r8 je .LBB3_6 leaq (%r8,%rcx), %rbx cmpq $15, %rbx ja .LBB3_9 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%r8), %rax movq %rdi, %r15 movq %rax, %rdi movq %rdx, %rsi movq %rcx, %rdx movq %rcx, %r12 callq *memcpy@GOTPCREL(%rip) movq %r15, %rdi movq %r12, %rcx vmovdqa 64(%r15), %xmm0 vpxor (%rsp), %xmm0, %xmm0 jmp .LBB3_24 .LBB3_6: movq %rcx, %rbx cmpq $96, %rbx jae .LBB3_11 jmp .LBB3_14 .LBB3_9: vmovaps 64(%rdi), %xmm0 vmovaps %xmm0, (%rsp) movl $16, %eax subq %r8, %rax addq %rsp, %r8 leaq (%rdx,%rax), %r15 movq %rcx, %rbx subq %rax, %rbx movq %rdi, %r12 movq %r8, %rdi movq %rsi, %r13 movq %rdx, %rsi movq %rax, %rdx movq %rcx, %rbp callq *memcpy@GOTPCREL(%rip) movq %r13, %rsi movq %r12, %rdi movq %rbp, %rcx movq $0, 80(%r12) vmovdqa (%rsp), %xmm0 vmovdqa 240(%r13), %xmm1 vpshufb .LCPI3_0(%rip), %xmm0, %xmm0 vpxor (%r12), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI3_3(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%r12) movq %r15, %rdx cmpq $96, %rbx jb .LBB3_14 .LBB3_11: vmovdqu 32(%rdx), %xmm1 vmovdqu 48(%rdx), %xmm2 vmovdqu 64(%rdx), %xmm3 vmovdqu 80(%rdx), %xmm4 vmovdqa .LCPI3_0(%rip), %xmm0 vpshufb %xmm0, %xmm1, %xmm6 vpshufb %xmm0, %xmm2, %xmm5 vpshufb %xmm0, %xmm3, %xmm7 vpshufb %xmm0, %xmm4, %xmm8 vmovdqa 240(%rsi), %xmm1 vmovdqa 256(%rsi), %xmm2 vmovdqa 272(%rsi), %xmm3 vmovdqa 288(%rsi), %xmm4 vpclmulqdq $0, %xmm8, %xmm1, %xmm9 vpclmulqdq $1, %xmm8, %xmm1, %xmm10 vpclmulqdq $16, %xmm8, %xmm1, %xmm11 vpxor %xmm10, %xmm11, %xmm10 vpclmulqdq $17, %xmm8, %xmm1, %xmm8 vpclmulqdq $0, %xmm7, %xmm2, %xmm11 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $1, %xmm7, %xmm2, %xmm11 vpclmulqdq $16, %xmm7, %xmm2, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpclmulqdq $17, %xmm7, %xmm2, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm5, %xmm3, %xmm8 vpclmulqdq $1, %xmm5, %xmm3, %xmm11 vpclmulqdq $16, %xmm5, %xmm3, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpclmulqdq $0, %xmm6, %xmm4, %xmm12 vpxor %xmm12, %xmm8, %xmm8 vmovdqu (%rdx), %xmm12 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $1, %xmm6, %xmm4, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vmovdqu 16(%rdx), %xmm11 vpshufb %xmm0, %xmm12, %xmm12 vpshufb %xmm0, %xmm11, %xmm11 vpxor (%rdi), %xmm12, %xmm12 vpclmulqdq $17, %xmm5, %xmm3, %xmm5 vpxor %xmm9, %xmm10, %xmm9 vpclmulqdq $17, %xmm6, %xmm4, %xmm10 vpxor %xmm5, %xmm10, %xmm10 vmovdqa 304(%rsi), %xmm5 vpclmulqdq $16, %xmm6, %xmm4, %xmm6 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $0, %xmm11, %xmm5, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $1, %xmm11, %xmm5, %xmm10 vpxor %xmm6, %xmm10, %xmm6 vpclmulqdq $16, %xmm11, %xmm5, %xmm10 vpxor %xmm6, %xmm10, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vmovdqa 320(%rsi), %xmm6 vpclmulqdq $17, %xmm11, %xmm5, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $0, %xmm12, %xmm6, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $1, %xmm12, %xmm6, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $16, %xmm12, %xmm6, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $17, %xmm12, %xmm6, %xmm10 vpxor %xmm7, %xmm10, %xmm10 addq $96, %rdx addq $-96, %rbx cmpq $96, %rbx jb .LBB3_13 .p2align 4, 0x90 .LBB3_12: vmovdqu (%rdx), %xmm11 vmovdqu 32(%rdx), %xmm12 vmovdqu 48(%rdx), %xmm13 vmovdqu 64(%rdx), %xmm14 vmovdqu 80(%rdx), %xmm15 vpslldq $8, %xmm9, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpsrldq $8, %xmm9, %xmm8 vpxor %xmm8, %xmm10, %xmm8 vpbroadcastq .LCPI3_3(%rip), %xmm10 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpshufb %xmm0, %xmm11, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor %xmm7, %xmm9, %xmm10 vpshufb %xmm0, %xmm12, %xmm8 vpshufb %xmm0, %xmm13, %xmm7 vpshufb %xmm0, %xmm14, %xmm9 vpshufb %xmm0, %xmm15, %xmm11 vpclmulqdq $0, %xmm11, %xmm1, %xmm12 vpclmulqdq $1, %xmm11, %xmm1, %xmm13 vpclmulqdq $16, %xmm11, %xmm1, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $17, %xmm11, %xmm1, %xmm11 vpclmulqdq $0, %xmm9, %xmm2, %xmm14 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $1, %xmm9, %xmm2, %xmm14 vpclmulqdq $16, %xmm9, %xmm2, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpclmulqdq $17, %xmm9, %xmm2, %xmm9 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $0, %xmm7, %xmm3, %xmm11 vpclmulqdq $1, %xmm7, %xmm3, %xmm14 vpclmulqdq $16, %xmm7, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $0, %xmm8, %xmm4, %xmm15 vpxor %xmm15, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $1, %xmm8, %xmm4, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $17, %xmm7, %xmm3, %xmm7 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm8, %xmm4, %xmm13 vpxor %xmm7, %xmm13, %xmm7 vmovdqu 16(%rdx), %xmm13 vpshufb %xmm0, %xmm13, %xmm13 vpclmulqdq $16, %xmm8, %xmm4, %xmm8 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm13, %xmm5, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $1, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $16, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpxor %xmm8, %xmm12, %xmm11 vpclmulqdq $17, %xmm13, %xmm5, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm10, %xmm6, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $1, %xmm10, %xmm6, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $16, %xmm10, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $17, %xmm10, %xmm6, %xmm10 vpxor %xmm7, %xmm10, %xmm10 addq $96, %rdx addq $-96, %rbx cmpq $95, %rbx ja .LBB3_12 .LBB3_13: vpslldq $8, %xmm9, %xmm0 vpxor %xmm0, %xmm8, %xmm0 vpsrldq $8, %xmm9, %xmm1 vpxor %xmm1, %xmm10, %xmm1 vpbroadcastq .LCPI3_3(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vmovdqa %xmm0, (%rdi) .LBB3_14: cmpq $16, %rbx jae .LBB3_15 testq %rbx, %rbx jne .LBB3_23 jmp .LBB3_25 .LBB3_15: vmovdqa (%rdi), %xmm1 vmovdqa 240(%rsi), %xmm0 leaq -16(%rbx), %rax testb $16, %al jne .LBB3_17 vmovdqu (%rdx), %xmm2 vpshufb .LCPI3_0(%rip), %xmm2, %xmm2 addq $16, %rdx vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpbroadcastq .LCPI3_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm3, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 movq %rax, %rbx .LBB3_17: cmpq $16, %rax jb .LBB3_21 vmovdqa .LCPI3_0(%rip), %xmm2 vpbroadcastq .LCPI3_3(%rip), %xmm3 .p2align 4, 0x90 .LBB3_19: vmovdqu (%rdx), %xmm4 vmovdqu 16(%rdx), %xmm5 vpshufb %xmm2, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 addq $32, %rdx addq $-32, %rbx vpshufb %xmm2, %xmm5, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm6, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $16, %xmm1, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm1 cmpq $15, %rbx ja .LBB3_19 movq %rbx, %rax .LBB3_21: vmovdqa %xmm1, (%rdi) movq %rax, %rbx testq %rbx, %rbx je .LBB3_25 .LBB3_23: vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rax movq %rdi, %r15 movq %rax, %rdi movq %rdx, %rsi movq %rbx, %rdx movq %rcx, %r12 callq *memcpy@GOTPCREL(%rip) movq %r15, %rdi movq %r12, %rcx vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 48(%r15) vmovdqa (%rsp), %xmm0 .LBB3_24: vmovdqa %xmm0, 64(%r15) movq %rbx, 80(%r15) .LBB3_25: movq %r14, 96(%rdi) movq %rcx, %rax .LBB3_26: addq $24, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp retq .Lfunc_end3: .size haberdashery_aes256gcm_streaming_broadwell_aad_update, .Lfunc_end3-haberdashery_aes256gcm_streaming_broadwell_aad_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI4_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI4_1: .zero 8 .quad -4467570830351532032 .LCPI4_2: .long 1 .long 0 .long 0 .long 0 .LCPI4_3: .long 2 .long 0 .long 0 .long 0 .LCPI4_4: .long 3 .long 0 .long 0 .long 0 .LCPI4_5: .long 4 .long 0 .long 0 .long 0 .LCPI4_6: .long 5 .long 0 .long 0 .long 0 .LCPI4_7: .long 6 .long 0 .long 0 .long 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI4_8: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_streaming_broadwell_encrypt_update,"ax",@progbits .globl haberdashery_aes256gcm_streaming_broadwell_encrypt_update .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_broadwell_encrypt_update,@function haberdashery_aes256gcm_streaming_broadwell_encrypt_update: .cfi_startproc cmpq %r9, %rcx jne .LBB4_3 movq %rcx, %rax movabsq $-68719476704, %rcx leaq (%rax,%rcx), %r9 incq %rcx cmpq %rcx, %r9 jb .LBB4_3 movq 104(%rdi), %rcx leaq (%rcx,%rax), %r11 movq %r11, %r9 shrq $5, %r9 cmpq $2147483646, %r9 jbe .LBB4_6 .LBB4_3: xorl %eax, %eax retq .LBB4_6: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $504, %rsp .cfi_def_cfa_offset 560 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 testq %rcx, %rcx setne %r9b movq 80(%rdi), %rcx testq %rcx, %rcx sete %r10b orb %r9b, %r10b je .LBB4_10 testq %rcx, %rcx je .LBB4_11 movq %r11, 16(%rsp) movq %rdi, %rbp leaq (%rcx,%rax), %rbx cmpq $15, %rbx ja .LBB4_12 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r14 movq memcpy@GOTPCREL(%rip), %r13 movq %r14, %rdi movq %rdx, %rsi movq %rax, %rdx movq %rax, %r15 movq %r8, %r12 callq *%r13 vmovdqa (%rsp), %xmm0 vpxor 64(%rbp), %xmm0, %xmm0 vmovdqa %xmm0, 64(%rbp) vmovdqa %xmm0, (%rsp) movq %r12, %rdi movq %r14, %rsi movq %r15, %r12 movq %r15, %rdx callq *%r13 movq %rbp, %rdi jmp .LBB4_24 .LBB4_10: vmovdqa 240(%rsi), %xmm0 vmovdqa 64(%rdi), %xmm1 vpshufb .LCPI4_0(%rip), %xmm1, %xmm1 vpxor (%rdi), %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI4_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rdi) vpxor %xmm0, %xmm0, %xmm0 vmovdqu %ymm0, 48(%rdi) movq $0, 80(%rdi) .LBB4_11: movq %rax, %rbx cmpq $96, %rbx jb .LBB4_14 .LBB4_16: vmovups (%rdx), %xmm0 vmovaps %xmm0, 48(%rsp) vmovups 16(%rdx), %xmm0 vmovaps %xmm0, 32(%rsp) vmovups 32(%rdx), %xmm0 vmovaps %xmm0, 64(%rsp) vmovdqu 48(%rdx), %xmm3 vmovdqu 64(%rdx), %xmm5 vmovdqu 80(%rdx), %xmm6 vmovdqa 32(%rdi), %xmm1 vmovdqa .LCPI4_0(%rip), %xmm14 vpaddd .LCPI4_2(%rip), %xmm1, %xmm7 vpshufb %xmm14, %xmm1, %xmm8 vpshufb %xmm14, %xmm7, %xmm7 vpaddd .LCPI4_3(%rip), %xmm1, %xmm9 vpshufb %xmm14, %xmm9, %xmm9 vpaddd .LCPI4_4(%rip), %xmm1, %xmm10 vpshufb %xmm14, %xmm10, %xmm11 vpaddd .LCPI4_5(%rip), %xmm1, %xmm10 vpaddd .LCPI4_6(%rip), %xmm1, %xmm12 vpshufb %xmm14, %xmm10, %xmm13 vmovdqa %xmm14, %xmm10 vpshufb %xmm14, %xmm12, %xmm12 vpaddd .LCPI4_7(%rip), %xmm1, %xmm1 vmovdqa %xmm1, 32(%rdi) vmovdqa (%rsi), %xmm14 vmovaps 16(%rsi), %xmm15 vmovaps 32(%rsi), %xmm0 vpxor %xmm8, %xmm14, %xmm8 vpxor %xmm7, %xmm14, %xmm7 vpxor %xmm9, %xmm14, %xmm1 vpxor %xmm11, %xmm14, %xmm11 vpxor %xmm13, %xmm14, %xmm9 vmovdqa %xmm14, %xmm13 vpxor %xmm12, %xmm14, %xmm12 vmovaps %xmm15, 432(%rsp) #APP vaesenc %xmm15, %xmm8, %xmm8 vaesenc %xmm15, %xmm7, %xmm7 vaesenc %xmm15, %xmm1, %xmm1 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm12, %xmm12 #NO_APP vmovaps %xmm0, 416(%rsp) #APP vaesenc %xmm0, %xmm8, %xmm8 vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm9, %xmm9 vaesenc %xmm0, %xmm12, %xmm12 #NO_APP vmovdqa 48(%rsi), %xmm0 #APP vaesenc %xmm0, %xmm8, %xmm8 vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm9, %xmm9 vaesenc %xmm0, %xmm12, %xmm12 #NO_APP vmovaps 64(%rsi), %xmm14 vmovaps %xmm14, 400(%rsp) #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovaps 80(%rsi), %xmm14 vmovaps %xmm14, 384(%rsp) #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovaps 96(%rsi), %xmm14 vmovaps %xmm14, 368(%rsp) #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovaps 112(%rsi), %xmm14 vmovaps %xmm14, 352(%rsp) #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovaps 128(%rsi), %xmm14 vmovaps %xmm14, 336(%rsp) #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovaps 144(%rsi), %xmm14 vmovaps %xmm14, 320(%rsp) #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovaps 160(%rsi), %xmm14 vmovaps %xmm14, 304(%rsp) #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovaps 176(%rsi), %xmm14 vmovaps %xmm14, 288(%rsp) #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovaps 192(%rsi), %xmm14 vmovaps %xmm14, 272(%rsp) #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovdqa 208(%rsi), %xmm14 vmovdqa %xmm14, %xmm2 #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovdqa 224(%rsi), %xmm14 vmovdqa %xmm14, %xmm4 #APP vaesenclast %xmm14, %xmm8, %xmm8 vaesenclast %xmm14, %xmm7, %xmm7 vaesenclast %xmm14, %xmm1, %xmm1 vaesenclast %xmm14, %xmm11, %xmm11 vaesenclast %xmm14, %xmm9, %xmm9 vaesenclast %xmm14, %xmm12, %xmm12 #NO_APP vpxor %xmm6, %xmm12, %xmm14 vpxor %xmm5, %xmm9, %xmm12 vpxor %xmm3, %xmm11, %xmm11 vpxor 64(%rsp), %xmm1, %xmm3 vpxor 32(%rsp), %xmm7, %xmm5 vpxor 48(%rsp), %xmm8, %xmm15 addq $96, %rdx leaq 96(%r8), %rcx addq $-96, %rbx vmovdqu %xmm15, (%r8) vmovdqu %xmm5, 16(%r8) vmovdqu %xmm3, 32(%r8) vmovdqu %xmm11, 48(%r8) vmovdqu %xmm12, 64(%r8) vmovdqu %xmm14, 80(%r8) vmovdqa (%rdi), %xmm8 cmpq $96, %rbx jb .LBB4_19 vmovaps 240(%rsi), %xmm1 vmovaps %xmm1, 256(%rsp) vmovaps 256(%rsi), %xmm1 vmovaps %xmm1, 240(%rsp) vmovaps 272(%rsi), %xmm1 vmovaps %xmm1, 224(%rsp) vmovaps 288(%rsi), %xmm1 vmovaps %xmm1, 208(%rsp) vmovaps 304(%rsi), %xmm1 vmovaps %xmm1, 192(%rsp) vmovdqa 320(%rsi), %xmm1 vmovdqa %xmm1, 176(%rsp) vmovdqa %xmm0, 144(%rsp) vmovdqa %xmm2, 160(%rsp) vmovdqa %xmm4, 128(%rsp) vmovdqa %xmm13, 16(%rsp) .p2align 4, 0x90 .LBB4_18: vmovdqa %xmm3, 448(%rsp) vmovdqa %xmm5, 464(%rsp) vmovups (%rdx), %xmm0 vmovaps %xmm0, 48(%rsp) vmovups 16(%rdx), %xmm0 vmovaps %xmm0, 32(%rsp) vmovups 32(%rdx), %xmm0 vmovaps %xmm0, 64(%rsp) vmovups 48(%rdx), %xmm0 vmovaps %xmm0, 80(%rsp) vmovups 64(%rdx), %xmm0 vmovaps %xmm0, 112(%rsp) vmovups 80(%rdx), %xmm0 vmovaps %xmm0, 96(%rsp) vmovdqa 32(%rdi), %xmm0 vpaddd .LCPI4_2(%rip), %xmm0, %xmm4 vpshufb %xmm10, %xmm4, %xmm5 vpaddd .LCPI4_7(%rip), %xmm0, %xmm4 vmovdqa %xmm4, 32(%rdi) vpaddd .LCPI4_3(%rip), %xmm0, %xmm4 vpshufb %xmm10, %xmm4, %xmm6 vpshufb %xmm10, %xmm15, %xmm4 vpxor %xmm4, %xmm8, %xmm1 vmovdqa %xmm1, 480(%rsp) vpaddd .LCPI4_4(%rip), %xmm0, %xmm7 vpshufb %xmm10, %xmm7, %xmm7 vpaddd .LCPI4_5(%rip), %xmm0, %xmm8 vpshufb %xmm10, %xmm8, %xmm9 vpshufb %xmm10, %xmm0, %xmm8 vpaddd .LCPI4_6(%rip), %xmm0, %xmm0 vpshufb %xmm10, %xmm0, %xmm1 vmovdqa %xmm10, %xmm2 vpshufb %xmm10, %xmm14, %xmm10 vpxor %xmm8, %xmm13, %xmm8 vpxor %xmm5, %xmm13, %xmm15 vpxor 16(%rsp), %xmm6, %xmm13 vpxor 16(%rsp), %xmm7, %xmm0 vpxor 16(%rsp), %xmm9, %xmm5 vpxor 16(%rsp), %xmm1, %xmm14 vmovaps 432(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm8, %xmm8 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm14, %xmm14 #NO_APP vpxor %xmm6, %xmm6, %xmm6 vpxor %xmm7, %xmm7, %xmm7 vpxor %xmm9, %xmm9, %xmm9 vmovaps 256(%rsp), %xmm3 vmovaps 416(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm8, %xmm8 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm4, %xmm5, %xmm5 vaesenc %xmm4, %xmm14, %xmm14 vpclmulqdq $16, %xmm3, %xmm10, %xmm1 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm10, %xmm1 vpxor %xmm1, %xmm9, %xmm9 vpclmulqdq $17, %xmm3, %xmm10, %xmm1 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm3, %xmm10, %xmm1 vpxor %xmm1, %xmm6, %xmm6 #NO_APP vpshufb %xmm2, %xmm12, %xmm1 vmovaps 144(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm14, %xmm14 #NO_APP vmovaps 240(%rsp), %xmm3 vmovaps 400(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm8, %xmm8 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm4, %xmm5, %xmm5 vaesenc %xmm4, %xmm14, %xmm14 vpclmulqdq $16, %xmm3, %xmm1, %xmm10 vpxor %xmm6, %xmm10, %xmm6 vpclmulqdq $0, %xmm3, %xmm1, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $17, %xmm3, %xmm1, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $1, %xmm3, %xmm1, %xmm10 vpxor %xmm6, %xmm10, %xmm6 #NO_APP vpshufb %xmm2, %xmm11, %xmm1 vmovaps 384(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm14, %xmm14 #NO_APP vmovaps 224(%rsp), %xmm3 vmovaps 368(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm8, %xmm8 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm4, %xmm5, %xmm5 vaesenc %xmm4, %xmm14, %xmm14 vpclmulqdq $16, %xmm3, %xmm1, %xmm10 vpxor %xmm6, %xmm10, %xmm6 vpclmulqdq $0, %xmm3, %xmm1, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $17, %xmm3, %xmm1, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $1, %xmm3, %xmm1, %xmm10 vpxor %xmm6, %xmm10, %xmm6 #NO_APP vmovdqa %xmm2, %xmm10 vmovdqa 448(%rsp), %xmm1 vpshufb %xmm2, %xmm1, %xmm1 vmovaps 352(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm15, %xmm15 vaesenc %xmm2, %xmm13, %xmm13 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm2, %xmm5, %xmm5 vaesenc %xmm2, %xmm14, %xmm14 #NO_APP vmovaps 208(%rsp), %xmm2 vmovaps 336(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm8, %xmm8 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm4, %xmm5, %xmm5 vaesenc %xmm4, %xmm14, %xmm14 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm1, %xmm3 vpxor %xmm3, %xmm9, %xmm9 vpclmulqdq $17, %xmm2, %xmm1, %xmm3 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm1, %xmm3 vpxor %xmm3, %xmm6, %xmm6 #NO_APP vmovdqa 464(%rsp), %xmm1 vpshufb %xmm10, %xmm1, %xmm1 vmovaps 320(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm15, %xmm15 vaesenc %xmm2, %xmm13, %xmm13 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm2, %xmm5, %xmm5 vaesenc %xmm2, %xmm14, %xmm14 #NO_APP vmovaps 192(%rsp), %xmm3 vmovaps 304(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm8, %xmm8 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm4, %xmm5, %xmm5 vaesenc %xmm4, %xmm14, %xmm14 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm1, %xmm2 vpxor %xmm2, %xmm9, %xmm9 vpclmulqdq $17, %xmm3, %xmm1, %xmm2 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $1, %xmm3, %xmm1, %xmm2 vpxor %xmm2, %xmm6, %xmm6 #NO_APP vmovaps 288(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm8, %xmm8 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm14, %xmm14 #NO_APP vmovaps 176(%rsp), %xmm2 vmovaps 272(%rsp), %xmm3 vmovaps 480(%rsp), %xmm4 #APP vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm14, %xmm14 vpclmulqdq $16, %xmm2, %xmm4, %xmm1 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm4, %xmm1 vpxor %xmm1, %xmm9, %xmm9 vpclmulqdq $17, %xmm2, %xmm4, %xmm1 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm4, %xmm1 vpxor %xmm1, %xmm6, %xmm6 #NO_APP vmovaps 160(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm8, %xmm8 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm14, %xmm14 #NO_APP vmovdqa 128(%rsp), %xmm1 #APP vaesenclast %xmm1, %xmm8, %xmm8 vaesenclast %xmm1, %xmm15, %xmm15 vaesenclast %xmm1, %xmm13, %xmm13 vaesenclast %xmm1, %xmm0, %xmm0 vaesenclast %xmm1, %xmm5, %xmm5 vaesenclast %xmm1, %xmm14, %xmm14 #NO_APP vpxor 96(%rsp), %xmm14, %xmm14 vpxor 112(%rsp), %xmm5, %xmm12 vpxor 80(%rsp), %xmm0, %xmm11 vpxor 64(%rsp), %xmm13, %xmm3 vmovdqa 16(%rsp), %xmm13 vpxor 32(%rsp), %xmm15, %xmm5 vpxor 48(%rsp), %xmm8, %xmm15 vpxor %xmm1, %xmm1, %xmm1 vpunpcklqdq %xmm6, %xmm1, %xmm0 vpxor %xmm0, %xmm9, %xmm0 vpunpckhqdq %xmm1, %xmm6, %xmm1 vpxor %xmm1, %xmm7, %xmm1 vpbroadcastq .LCPI4_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm4 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm4, %xmm0 vpshufd $78, %xmm0, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $16, %xmm2, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm8 vmovdqu %xmm15, (%rcx) vmovdqu %xmm5, 16(%rcx) vmovdqu %xmm3, 32(%rcx) vmovdqu %xmm11, 48(%rcx) vmovdqu %xmm12, 64(%rcx) vmovdqu %xmm14, 80(%rcx) addq $96, %rdx addq $96, %rcx addq $-96, %rbx cmpq $95, %rbx ja .LBB4_18 .LBB4_19: vpshufb %xmm10, %xmm15, %xmm0 vpxor %xmm0, %xmm8, %xmm0 vpshufb %xmm10, %xmm5, %xmm1 vpshufb %xmm10, %xmm3, %xmm4 vpshufb %xmm10, %xmm11, %xmm5 vpshufb %xmm10, %xmm12, %xmm6 vpshufb %xmm10, %xmm14, %xmm7 vmovdqa 240(%rsi), %xmm8 vmovdqa 256(%rsi), %xmm9 vmovdqa 272(%rsi), %xmm10 vmovdqa 288(%rsi), %xmm11 vmovdqa 304(%rsi), %xmm3 vmovdqa 320(%rsi), %xmm2 vpclmulqdq $0, %xmm7, %xmm8, %xmm12 vpclmulqdq $1, %xmm7, %xmm8, %xmm13 vpclmulqdq $16, %xmm7, %xmm8, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $17, %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm6, %xmm9, %xmm8 vpxor %xmm12, %xmm8, %xmm8 vpclmulqdq $1, %xmm6, %xmm9, %xmm12 vpclmulqdq $16, %xmm6, %xmm9, %xmm14 vpxor %xmm14, %xmm12, %xmm12 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm6, %xmm9, %xmm6 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm10, %xmm7 vpclmulqdq $1, %xmm5, %xmm10, %xmm9 vpclmulqdq $16, %xmm5, %xmm10, %xmm13 vpxor %xmm13, %xmm9, %xmm9 vpclmulqdq $17, %xmm5, %xmm10, %xmm5 vpclmulqdq $0, %xmm4, %xmm11, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $1, %xmm4, %xmm11, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpxor %xmm8, %xmm12, %xmm8 vpclmulqdq $16, %xmm4, %xmm11, %xmm9 vpclmulqdq $17, %xmm4, %xmm11, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $0, %xmm1, %xmm3, %xmm5 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $1, %xmm1, %xmm3, %xmm6 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $16, %xmm1, %xmm3, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm1, %xmm3, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $0, %xmm0, %xmm2, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $1, %xmm0, %xmm2, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm0, %xmm2, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $17, %xmm0, %xmm2, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm4, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpsrldq $8, %xmm4, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI4_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vmovdqa %xmm0, (%rdi) movq %rcx, %r8 cmpq $16, %rbx jae .LBB4_20 .LBB4_15: testq %rbx, %rbx jne .LBB4_23 jmp .LBB4_25 .LBB4_12: movl $16, %r14d subq %rcx, %r14 leaq (%rdx,%r14), %rdi movq %rdi, 32(%rsp) leaq (%r8,%r14), %rdi movq %rdi, 64(%rsp) movq %rax, %rbx subq %r14, %rbx vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r15 movq %r15, %rdi movq %rsi, 48(%rsp) movq %rdx, %rsi movq %r14, %rdx movq %rax, %r13 movq %r8, %r12 callq *memcpy@GOTPCREL(%rip) vmovaps (%rsp), %xmm0 vxorps 64(%rbp), %xmm0, %xmm0 vmovaps %xmm0, 80(%rsp) vmovaps %xmm0, 64(%rbp) vmovaps %xmm0, (%rsp) movq %r12, %rdi movq %r15, %rsi movq %r14, %rdx callq *memcpy@GOTPCREL(%rip) movq 48(%rsp), %rsi movq %rbp, %rdi movq %r13, %rax movq $0, 80(%rbp) vmovdqa 80(%rsp), %xmm0 vpshufb .LCPI4_0(%rip), %xmm0, %xmm0 vmovdqa 240(%rsi), %xmm1 vpxor (%rbp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI4_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rbp) movq 64(%rsp), %r8 movq 32(%rsp), %rdx movq 16(%rsp), %r11 cmpq $96, %rbx jae .LBB4_16 .LBB4_14: cmpq $16, %rbx jb .LBB4_15 .LBB4_20: vmovdqa (%rdi), %xmm14 vmovdqa 32(%rdi), %xmm0 vmovaps (%rsi), %xmm1 vmovaps %xmm1, 16(%rsp) vmovaps 16(%rsi), %xmm1 vmovaps %xmm1, 48(%rsp) vmovaps 32(%rsi), %xmm1 vmovaps %xmm1, 32(%rsp) vmovaps 48(%rsi), %xmm1 vmovaps %xmm1, 64(%rsp) vmovaps 64(%rsi), %xmm1 vmovaps %xmm1, 80(%rsp) vmovaps 80(%rsi), %xmm1 vmovaps %xmm1, 112(%rsp) vmovaps 96(%rsi), %xmm1 vmovaps %xmm1, 96(%rsp) vmovdqa 112(%rsi), %xmm8 vmovdqa 128(%rsi), %xmm9 vmovdqa 144(%rsi), %xmm10 vmovdqa 160(%rsi), %xmm11 vmovdqa 176(%rsi), %xmm12 vmovdqa 192(%rsi), %xmm13 vmovdqa 208(%rsi), %xmm15 vmovdqa 224(%rsi), %xmm1 vmovdqa 240(%rsi), %xmm2 vmovdqa .LCPI4_0(%rip), %xmm3 vpbroadcastq .LCPI4_8(%rip), %xmm4 .p2align 4, 0x90 .LBB4_21: vpshufb %xmm3, %xmm0, %xmm5 vpxor 16(%rsp), %xmm5, %xmm5 vaesenc 48(%rsp), %xmm5, %xmm5 vaesenc 32(%rsp), %xmm5, %xmm5 vaesenc 64(%rsp), %xmm5, %xmm5 vaesenc 80(%rsp), %xmm5, %xmm5 vaesenc 112(%rsp), %xmm5, %xmm5 vaesenc 96(%rsp), %xmm5, %xmm5 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm13, %xmm5, %xmm5 vaesenc %xmm15, %xmm5, %xmm5 vaesenclast %xmm1, %xmm5, %xmm5 vpxor (%rdx), %xmm5, %xmm5 vmovdqu %xmm5, (%r8) vpshufb %xmm3, %xmm5, %xmm5 vpxor %xmm5, %xmm14, %xmm5 vpclmulqdq $0, %xmm5, %xmm2, %xmm14 vpclmulqdq $1, %xmm5, %xmm2, %xmm6 vpclmulqdq $16, %xmm5, %xmm2, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $17, %xmm5, %xmm2, %xmm5 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $16, %xmm4, %xmm7, %xmm6 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpshufd $78, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $16, %xmm4, %xmm6, %xmm6 vpxor %xmm5, %xmm6, %xmm14 addq $16, %rdx addq $16, %r8 addq $-16, %rbx vpaddd .LCPI4_2(%rip), %xmm0, %xmm0 cmpq $15, %rbx ja .LBB4_21 vmovdqa %xmm0, 32(%rdi) vmovdqa %xmm14, (%rdi) testq %rbx, %rbx je .LBB4_25 .LBB4_23: movq %r11, 16(%rsp) movq %rax, %r12 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rax movq memcpy@GOTPCREL(%rip), %r15 movq %rdi, %rbp movq %rax, %rdi movq %rsi, %r13 movq %rdx, %rsi movq %rbx, %rdx movq %r8, %r14 vzeroupper callq *%r15 vmovdqa 32(%rbp), %xmm0 vpshufb .LCPI4_0(%rip), %xmm0, %xmm1 vpaddd .LCPI4_2(%rip), %xmm0, %xmm0 vmovdqa %xmm0, 32(%rbp) vpxor (%r13), %xmm1, %xmm0 vaesenc 16(%r13), %xmm0, %xmm0 vaesenc 32(%r13), %xmm0, %xmm0 vaesenc 48(%r13), %xmm0, %xmm0 vaesenc 64(%r13), %xmm0, %xmm0 vaesenc 80(%r13), %xmm0, %xmm0 vaesenc 96(%r13), %xmm0, %xmm0 vaesenc 112(%r13), %xmm0, %xmm0 vaesenc 128(%r13), %xmm0, %xmm0 vaesenc 144(%r13), %xmm0, %xmm0 vaesenc 160(%r13), %xmm0, %xmm0 vaesenc 176(%r13), %xmm0, %xmm0 vaesenc 192(%r13), %xmm0, %xmm0 vaesenc 208(%r13), %xmm0, %xmm0 vaesenclast 224(%r13), %xmm0, %xmm1 vmovdqa %xmm1, 48(%rsp) vmovdqa (%rsp), %xmm0 vpxor %xmm0, %xmm1, %xmm0 vmovdqa %xmm0, 32(%rsp) vmovdqa %xmm0, (%rsp) movq %rsp, %rsi movq %r14, %rdi movq %rbx, %rdx callq *%r15 movq %rbp, %rdi vmovaps 48(%rsp), %xmm0 vmovaps %xmm0, 48(%rbp) vmovdqa 32(%rsp), %xmm0 vmovdqa %xmm0, 64(%rbp) .LBB4_24: movq %rbx, 80(%rdi) movq %r12, %rax movq 16(%rsp), %r11 .LBB4_25: movq %r11, 104(%rdi) addq $504, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp vzeroupper retq .Lfunc_end4: .size haberdashery_aes256gcm_streaming_broadwell_encrypt_update, .Lfunc_end4-haberdashery_aes256gcm_streaming_broadwell_encrypt_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI5_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI5_1: .zero 8 .quad -4467570830351532032 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI5_2: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_streaming_broadwell_encrypt_finalize,"ax",@progbits .globl haberdashery_aes256gcm_streaming_broadwell_encrypt_finalize .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_broadwell_encrypt_finalize,@function haberdashery_aes256gcm_streaming_broadwell_encrypt_finalize: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $56, %rsp .cfi_def_cfa_offset 112 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq %rcx, %rbx movq %rsi, %r15 movq %rdi, %r12 movq 104(%rdi), %rbp testq %rbp, %rbp je .LBB5_1 movq %rdx, 8(%rsp) leaq 48(%r12), %r14 vmovaps 64(%r12), %xmm0 vmovaps %xmm0, 32(%rsp) movq 80(%r12), %r13 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 16(%rsp) leaq 16(%rsp), %rdi leaq 32(%rsp), %rsi movq %r13, %rdx callq *memcpy@GOTPCREL(%rip) vmovdqa (%r12), %xmm0 testq %r13, %r13 je .LBB5_4 vmovdqa 16(%rsp), %xmm1 vpshufb .LCPI5_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm2 vmovdqa 240(%r15), %xmm3 vpclmulqdq $0, %xmm2, %xmm3, %xmm0 vpclmulqdq $1, %xmm2, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm3, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm2, %xmm3, %xmm2 movq 8(%rsp), %rdx jmp .LBB5_6 .LBB5_1: cmpq $0, 80(%r12) vmovdqa (%r12), %xmm0 je .LBB5_8 vmovdqa 240(%r15), %xmm2 leaq 48(%r12), %r14 vmovdqa 64(%r12), %xmm1 vpshufb .LCPI5_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm3 vpclmulqdq $0, %xmm3, %xmm2, %xmm0 vpclmulqdq $1, %xmm3, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm3, %xmm2, %xmm2 .LBB5_6: vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI5_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm0, %xmm2, %xmm0 jmp .LBB5_7 .LBB5_4: movq 8(%rsp), %rdx .LBB5_7: vpxor %xmm1, %xmm1, %xmm1 vmovdqu %ymm1, (%r14) movq $0, 32(%r14) .LBB5_8: vmovdqa 240(%r15), %xmm1 vmovq 96(%r12), %xmm2 vmovq %rbp, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI5_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%r12) testq %rbx, %rbx je .LBB5_9 vmovdqa (%r15), %xmm1 vpxor 16(%r12), %xmm1, %xmm1 vaesenc 16(%r15), %xmm1, %xmm1 vaesenc 32(%r15), %xmm1, %xmm1 vaesenc 48(%r15), %xmm1, %xmm1 vaesenc 64(%r15), %xmm1, %xmm1 vaesenc 80(%r15), %xmm1, %xmm1 vaesenc 96(%r15), %xmm1, %xmm1 vaesenc 112(%r15), %xmm1, %xmm1 vaesenc 128(%r15), %xmm1, %xmm1 vaesenc 144(%r15), %xmm1, %xmm1 vaesenc 160(%r15), %xmm1, %xmm1 vaesenc 176(%r15), %xmm1, %xmm1 vaesenc 192(%r15), %xmm1, %xmm1 vaesenc 208(%r15), %xmm1, %xmm1 vaesenclast 224(%r15), %xmm1, %xmm1 vpshufb .LCPI5_0(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 cmpq $16, %rbx jae .LBB5_11 vmovdqa %xmm0, 16(%rsp) leaq 16(%rsp), %rsi movq %rdx, %rdi movq %rbx, %rdx vzeroupper callq *memcpy@GOTPCREL(%rip) jmp .LBB5_13 .LBB5_9: xorl %ebx, %ebx jmp .LBB5_13 .LBB5_11: vmovdqu %xmm0, (%rdx) movl $16, %ebx .LBB5_13: movq %rbx, %rax addq $56, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 vzeroupper retq .Lfunc_end5: .size haberdashery_aes256gcm_streaming_broadwell_encrypt_finalize, .Lfunc_end5-haberdashery_aes256gcm_streaming_broadwell_encrypt_finalize .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI6_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI6_1: .zero 8 .quad -4467570830351532032 .LCPI6_2: .long 1 .long 0 .long 0 .long 0 .LCPI6_3: .long 2 .long 0 .long 0 .long 0 .LCPI6_4: .long 3 .long 0 .long 0 .long 0 .LCPI6_5: .long 4 .long 0 .long 0 .long 0 .LCPI6_6: .long 5 .long 0 .long 0 .long 0 .LCPI6_7: .long 6 .long 0 .long 0 .long 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI6_8: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_streaming_broadwell_decrypt_update,"ax",@progbits .globl haberdashery_aes256gcm_streaming_broadwell_decrypt_update .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_broadwell_decrypt_update,@function haberdashery_aes256gcm_streaming_broadwell_decrypt_update: .cfi_startproc cmpq %r9, %rcx jne .LBB6_3 movq %rcx, %rax movabsq $-68719476704, %rcx leaq (%rax,%rcx), %r9 incq %rcx cmpq %rcx, %r9 jb .LBB6_3 movq 104(%rdi), %rcx leaq (%rcx,%rax), %r11 movq %r11, %r9 shrq $5, %r9 cmpq $2147483646, %r9 jbe .LBB6_6 .LBB6_3: xorl %eax, %eax retq .LBB6_6: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $456, %rsp .cfi_def_cfa_offset 512 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 testq %rcx, %rcx setne %r9b movq 80(%rdi), %rcx testq %rcx, %rcx sete %r10b orb %r9b, %r10b je .LBB6_10 testq %rcx, %rcx je .LBB6_11 movq %r11, 16(%rsp) movq %rdi, %rbp leaq (%rcx,%rax), %rbx cmpq $15, %rbx ja .LBB6_12 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r14 movq memcpy@GOTPCREL(%rip), %r13 movq %r14, %rdi movq %rdx, %rsi movq %rax, %rdx movq %rax, %r15 movq %r8, %r12 callq *%r13 vmovdqa (%rsp), %xmm0 vpxor 64(%rbp), %xmm0, %xmm0 vmovdqa %xmm0, 64(%rbp) vmovdqa %xmm0, (%rsp) movq %r12, %rdi movq %r14, %rsi movq %r15, %r12 movq %r15, %rdx callq *%r13 movq %rbp, %rdi jmp .LBB6_23 .LBB6_10: vmovdqa 240(%rsi), %xmm0 vmovdqa 64(%rdi), %xmm1 vpshufb .LCPI6_0(%rip), %xmm1, %xmm1 vpxor (%rdi), %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI6_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rdi) vpxor %xmm0, %xmm0, %xmm0 vmovdqu %ymm0, 48(%rdi) movq $0, 80(%rdi) .LBB6_11: movq %rax, %rbx cmpq $96, %rbx jb .LBB6_14 .LBB6_16: vmovdqa (%rdi), %xmm7 vmovaps (%rsi), %xmm0 vmovaps %xmm0, 144(%rsp) vmovaps 16(%rsi), %xmm0 vmovaps %xmm0, 112(%rsp) vmovaps 32(%rsi), %xmm0 vmovaps %xmm0, 96(%rsp) vmovaps 48(%rsi), %xmm0 vmovaps %xmm0, 432(%rsp) vmovaps 64(%rsi), %xmm0 vmovaps %xmm0, 416(%rsp) vmovaps 80(%rsi), %xmm0 vmovaps %xmm0, 400(%rsp) vmovaps 96(%rsi), %xmm0 vmovaps %xmm0, 384(%rsp) vmovaps 112(%rsi), %xmm0 vmovaps %xmm0, 368(%rsp) vmovaps 128(%rsi), %xmm0 vmovaps %xmm0, 352(%rsp) vmovaps 144(%rsi), %xmm0 vmovaps %xmm0, 336(%rsp) vmovaps 160(%rsi), %xmm0 vmovaps %xmm0, 320(%rsp) vmovaps 176(%rsi), %xmm0 vmovaps %xmm0, 304(%rsp) vmovaps 192(%rsi), %xmm0 vmovaps %xmm0, 288(%rsp) vmovaps 208(%rsi), %xmm0 vmovaps %xmm0, 272(%rsp) vmovaps 224(%rsi), %xmm0 vmovaps %xmm0, 256(%rsp) vmovaps 240(%rsi), %xmm0 vmovaps %xmm0, 240(%rsp) vmovaps 256(%rsi), %xmm0 vmovaps %xmm0, 224(%rsp) vmovaps 272(%rsi), %xmm0 vmovaps %xmm0, 208(%rsp) vmovaps 288(%rsi), %xmm0 vmovaps %xmm0, 192(%rsp) vmovaps 304(%rsi), %xmm0 vmovaps %xmm0, 176(%rsp) vmovdqa 320(%rsi), %xmm0 vmovdqa %xmm0, 160(%rsp) .p2align 4, 0x90 .LBB6_17: vmovdqu (%rdx), %xmm9 vmovdqa %xmm9, 48(%rsp) vmovups 16(%rdx), %xmm0 vmovaps %xmm0, 128(%rsp) vmovups 32(%rdx), %xmm0 vmovaps %xmm0, 16(%rsp) vmovdqu 48(%rdx), %xmm14 vmovdqu 64(%rdx), %xmm11 vmovdqa %xmm11, 64(%rsp) vmovdqu 80(%rdx), %xmm10 vmovdqa %xmm10, 32(%rsp) vmovdqa 32(%rdi), %xmm0 vmovdqa .LCPI6_0(%rip), %xmm6 vpshufb %xmm6, %xmm0, %xmm1 vpaddd .LCPI6_2(%rip), %xmm0, %xmm2 vpshufb %xmm6, %xmm2, %xmm2 vpaddd .LCPI6_3(%rip), %xmm0, %xmm3 vpshufb %xmm6, %xmm3, %xmm3 vpaddd .LCPI6_4(%rip), %xmm0, %xmm4 vpshufb %xmm6, %xmm4, %xmm4 vpaddd .LCPI6_5(%rip), %xmm0, %xmm5 vpshufb %xmm6, %xmm5, %xmm5 vpaddd .LCPI6_6(%rip), %xmm0, %xmm8 vpshufb %xmm6, %xmm8, %xmm8 vpaddd .LCPI6_7(%rip), %xmm0, %xmm0 vmovdqa %xmm0, 32(%rdi) vpshufb %xmm6, %xmm9, %xmm0 vpxor %xmm0, %xmm7, %xmm0 vmovdqa %xmm0, 80(%rsp) vpshufb %xmm6, %xmm10, %xmm10 vmovdqa 144(%rsp), %xmm0 vpxor %xmm1, %xmm0, %xmm15 vpxor %xmm2, %xmm0, %xmm1 vpxor %xmm3, %xmm0, %xmm2 vpxor %xmm4, %xmm0, %xmm3 vpxor %xmm5, %xmm0, %xmm4 vpxor %xmm0, %xmm8, %xmm5 vmovaps 112(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 #NO_APP vpxor %xmm8, %xmm8, %xmm8 vxorps %xmm0, %xmm0, %xmm0 vpxor %xmm9, %xmm9, %xmm9 vmovaps 96(%rsp), %xmm12 vmovaps 240(%rsp), %xmm13 #APP vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm5, %xmm5 vpclmulqdq $16, %xmm13, %xmm10, %xmm7 vpxor %xmm7, %xmm8, %xmm8 vpclmulqdq $0, %xmm13, %xmm10, %xmm7 vpxor %xmm7, %xmm9, %xmm9 vpclmulqdq $17, %xmm13, %xmm10, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $1, %xmm13, %xmm10, %xmm7 vpxor %xmm7, %xmm8, %xmm8 #NO_APP vmovaps 432(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP vpshufb %xmm6, %xmm11, %xmm7 vmovaps 416(%rsp), %xmm12 vmovaps 224(%rsp), %xmm13 #APP vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm5, %xmm5 vpclmulqdq $16, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $0, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $17, %xmm13, %xmm7, %xmm10 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $1, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm8, %xmm8 #NO_APP vmovaps 400(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP vpshufb %xmm6, %xmm14, %xmm7 vmovaps 384(%rsp), %xmm12 vmovaps 208(%rsp), %xmm13 #APP vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm5, %xmm5 vpclmulqdq $16, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $0, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $17, %xmm13, %xmm7, %xmm10 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $1, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm8, %xmm8 #NO_APP vmovaps 368(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP vmovdqa 16(%rsp), %xmm7 vpshufb %xmm6, %xmm7, %xmm7 vmovaps 352(%rsp), %xmm12 vmovaps 192(%rsp), %xmm13 #APP vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm5, %xmm5 vpclmulqdq $16, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $0, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $17, %xmm13, %xmm7, %xmm10 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $1, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm8, %xmm8 #NO_APP vmovaps 336(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP vmovdqa 128(%rsp), %xmm11 vpshufb %xmm6, %xmm11, %xmm7 vmovaps 320(%rsp), %xmm12 vmovdqa 176(%rsp), %xmm13 #APP vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm5, %xmm5 vpclmulqdq $16, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $0, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $17, %xmm13, %xmm7, %xmm10 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $1, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm8, %xmm8 #NO_APP vmovaps 304(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP vmovdqa 288(%rsp), %xmm10 vmovdqa 160(%rsp), %xmm12 vmovdqa 80(%rsp), %xmm6 #APP vaesenc %xmm10, %xmm15, %xmm15 vaesenc %xmm10, %xmm1, %xmm1 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm10, %xmm4, %xmm4 vaesenc %xmm10, %xmm5, %xmm5 vpclmulqdq $16, %xmm12, %xmm6, %xmm7 vpxor %xmm7, %xmm8, %xmm8 vpclmulqdq $0, %xmm12, %xmm6, %xmm7 vpxor %xmm7, %xmm9, %xmm9 vpclmulqdq $17, %xmm12, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $1, %xmm12, %xmm6, %xmm7 vpxor %xmm7, %xmm8, %xmm8 #NO_APP vpxor %xmm10, %xmm10, %xmm10 vpunpcklqdq %xmm8, %xmm10, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpunpckhqdq %xmm10, %xmm8, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vpbroadcastq .LCPI6_8(%rip), %xmm9 vpclmulqdq $16, %xmm9, %xmm7, %xmm8 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpshufd $78, %xmm7, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $16, %xmm9, %xmm7, %xmm7 vpxor %xmm7, %xmm0, %xmm7 vmovaps 272(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 #NO_APP vmovaps 256(%rsp), %xmm0 #APP vaesenclast %xmm0, %xmm15, %xmm15 vaesenclast %xmm0, %xmm1, %xmm1 vaesenclast %xmm0, %xmm2, %xmm2 vaesenclast %xmm0, %xmm3, %xmm3 vaesenclast %xmm0, %xmm4, %xmm4 vaesenclast %xmm0, %xmm5, %xmm5 #NO_APP vpxor 48(%rsp), %xmm15, %xmm0 vpxor %xmm1, %xmm11, %xmm1 vpxor 16(%rsp), %xmm2, %xmm2 vpxor %xmm3, %xmm14, %xmm3 vpxor 64(%rsp), %xmm4, %xmm4 vpxor 32(%rsp), %xmm5, %xmm5 vmovdqu %xmm0, (%r8) vmovdqu %xmm1, 16(%r8) vmovdqu %xmm2, 32(%r8) vmovdqu %xmm3, 48(%r8) vmovdqu %xmm4, 64(%r8) vmovdqu %xmm5, 80(%r8) addq $96, %rdx addq $96, %r8 addq $-96, %rbx cmpq $95, %rbx ja .LBB6_17 vmovdqa %xmm7, (%rdi) cmpq $16, %rbx jae .LBB6_19 .LBB6_15: testq %rbx, %rbx jne .LBB6_22 jmp .LBB6_24 .LBB6_12: movl $16, %r14d subq %rcx, %r14 leaq (%rdx,%r14), %rdi movq %rdi, 32(%rsp) leaq (%r8,%r14), %rdi movq %rdi, 80(%rsp) movq %rax, %rbx subq %r14, %rbx vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r15 movq %r15, %rdi movq %rsi, 48(%rsp) movq %rdx, %rsi movq %r14, %rdx movq %rax, %r13 movq %r8, %r12 callq *memcpy@GOTPCREL(%rip) vmovaps (%rsp), %xmm0 vxorps 64(%rbp), %xmm0, %xmm0 vmovaps %xmm0, 64(%rsp) vmovaps %xmm0, 64(%rbp) vmovaps %xmm0, (%rsp) movq %r12, %rdi movq %r15, %rsi movq %r14, %rdx callq *memcpy@GOTPCREL(%rip) movq 48(%rsp), %rsi movq %rbp, %rdi movq %r13, %rax movq $0, 80(%rbp) vmovdqa 64(%rsp), %xmm0 vpxor 48(%rbp), %xmm0, %xmm0 vpshufb .LCPI6_0(%rip), %xmm0, %xmm0 vmovdqa 240(%rsi), %xmm1 vpxor (%rbp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI6_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rbp) movq 80(%rsp), %r8 movq 32(%rsp), %rdx movq 16(%rsp), %r11 cmpq $96, %rbx jae .LBB6_16 .LBB6_14: cmpq $16, %rbx jb .LBB6_15 .LBB6_19: vmovdqa (%rdi), %xmm14 vmovdqa 32(%rdi), %xmm0 vmovdqa 240(%rsi), %xmm1 vmovaps (%rsi), %xmm2 vmovaps %xmm2, 16(%rsp) vmovaps 16(%rsi), %xmm2 vmovaps %xmm2, 48(%rsp) vmovaps 32(%rsi), %xmm2 vmovaps %xmm2, 32(%rsp) vmovaps 48(%rsi), %xmm2 vmovaps %xmm2, 80(%rsp) vmovaps 64(%rsi), %xmm2 vmovaps %xmm2, 64(%rsp) vmovaps 80(%rsi), %xmm2 vmovaps %xmm2, 128(%rsp) vmovaps 96(%rsi), %xmm2 vmovaps %xmm2, 112(%rsp) vmovaps 112(%rsi), %xmm2 vmovaps %xmm2, 96(%rsp) vmovdqa 128(%rsi), %xmm10 vmovdqa 144(%rsi), %xmm11 vmovdqa 160(%rsi), %xmm12 vmovdqa 176(%rsi), %xmm13 vmovdqa 192(%rsi), %xmm15 vmovdqa 208(%rsi), %xmm2 vmovdqa 224(%rsi), %xmm3 vmovdqa .LCPI6_0(%rip), %xmm4 vpbroadcastq .LCPI6_8(%rip), %xmm5 .p2align 4, 0x90 .LBB6_20: vmovdqu (%rdx), %xmm6 vpshufb %xmm4, %xmm6, %xmm7 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $0, %xmm7, %xmm1, %xmm14 vpclmulqdq $1, %xmm7, %xmm1, %xmm8 vpclmulqdq $16, %xmm7, %xmm1, %xmm9 vpxor %xmm8, %xmm9, %xmm8 vpslldq $8, %xmm8, %xmm9 vpxor %xmm9, %xmm14, %xmm9 vpclmulqdq $17, %xmm7, %xmm1, %xmm7 vpsrldq $8, %xmm8, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $16, %xmm5, %xmm9, %xmm8 vpshufd $78, %xmm9, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpshufd $78, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $16, %xmm5, %xmm8, %xmm8 vpxor %xmm7, %xmm8, %xmm14 vpshufb %xmm4, %xmm0, %xmm7 vpxor 16(%rsp), %xmm7, %xmm7 vaesenc 48(%rsp), %xmm7, %xmm7 vaesenc 32(%rsp), %xmm7, %xmm7 vaesenc 80(%rsp), %xmm7, %xmm7 vaesenc 64(%rsp), %xmm7, %xmm7 vaesenc 128(%rsp), %xmm7, %xmm7 vaesenc 112(%rsp), %xmm7, %xmm7 vaesenc 96(%rsp), %xmm7, %xmm7 vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm11, %xmm7, %xmm7 vaesenc %xmm12, %xmm7, %xmm7 vaesenc %xmm13, %xmm7, %xmm7 vaesenc %xmm15, %xmm7, %xmm7 vaesenc %xmm2, %xmm7, %xmm7 vaesenclast %xmm3, %xmm7, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vmovdqu %xmm6, (%r8) addq $16, %r8 addq $-16, %rbx addq $16, %rdx vpaddd .LCPI6_2(%rip), %xmm0, %xmm0 cmpq $15, %rbx ja .LBB6_20 vmovdqa %xmm0, 32(%rdi) vmovdqa %xmm14, (%rdi) testq %rbx, %rbx je .LBB6_24 .LBB6_22: movq %r11, 16(%rsp) movq %rax, %r12 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rax movq memcpy@GOTPCREL(%rip), %r15 movq %rdi, %rbp movq %rax, %rdi movq %rsi, %r13 movq %rdx, %rsi movq %rbx, %rdx movq %r8, %r14 vzeroupper callq *%r15 vmovdqa 32(%rbp), %xmm0 vpshufb .LCPI6_0(%rip), %xmm0, %xmm1 vpaddd .LCPI6_2(%rip), %xmm0, %xmm0 vmovdqa %xmm0, 32(%rbp) vpxor (%r13), %xmm1, %xmm0 vaesenc 16(%r13), %xmm0, %xmm0 vaesenc 32(%r13), %xmm0, %xmm0 vaesenc 48(%r13), %xmm0, %xmm0 vaesenc 64(%r13), %xmm0, %xmm0 vaesenc 80(%r13), %xmm0, %xmm0 vaesenc 96(%r13), %xmm0, %xmm0 vaesenc 112(%r13), %xmm0, %xmm0 vaesenc 128(%r13), %xmm0, %xmm0 vaesenc 144(%r13), %xmm0, %xmm0 vaesenc 160(%r13), %xmm0, %xmm0 vaesenc 176(%r13), %xmm0, %xmm0 vaesenc 192(%r13), %xmm0, %xmm0 vaesenc 208(%r13), %xmm0, %xmm0 vaesenclast 224(%r13), %xmm0, %xmm1 vmovdqa %xmm1, 48(%rsp) vmovdqa (%rsp), %xmm0 vpxor %xmm0, %xmm1, %xmm0 vmovdqa %xmm0, 32(%rsp) vmovdqa %xmm0, (%rsp) movq %rsp, %rsi movq %r14, %rdi movq %rbx, %rdx callq *%r15 movq %rbp, %rdi vmovaps 48(%rsp), %xmm0 vmovaps %xmm0, 48(%rbp) vmovdqa 32(%rsp), %xmm0 vmovdqa %xmm0, 64(%rbp) .LBB6_23: movq %rbx, 80(%rdi) movq %r12, %rax movq 16(%rsp), %r11 .LBB6_24: movq %r11, 104(%rdi) addq $456, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp vzeroupper retq .Lfunc_end6: .size haberdashery_aes256gcm_streaming_broadwell_decrypt_update, .Lfunc_end6-haberdashery_aes256gcm_streaming_broadwell_decrypt_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI7_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI7_1: .zero 8 .quad -4467570830351532032 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI7_2: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_streaming_broadwell_decrypt_finalize,"ax",@progbits .globl haberdashery_aes256gcm_streaming_broadwell_decrypt_finalize .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_broadwell_decrypt_finalize,@function haberdashery_aes256gcm_streaming_broadwell_decrypt_finalize: .cfi_startproc xorl %eax, %eax cmpq $16, %rcx jne .LBB7_10 pushq %r15 .cfi_def_cfa_offset 16 pushq %r14 .cfi_def_cfa_offset 24 pushq %r13 .cfi_def_cfa_offset 32 pushq %r12 .cfi_def_cfa_offset 40 pushq %rbx .cfi_def_cfa_offset 48 subq $48, %rsp .cfi_def_cfa_offset 96 .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r13, -32 .cfi_offset %r14, -24 .cfi_offset %r15, -16 vmovdqu (%rdx), %xmm5 movq 104(%rdi), %r14 testq %r14, %r14 je .LBB7_2 vmovdqa %xmm5, (%rsp) movq %rsi, %r12 leaq 48(%rdi), %r15 vmovaps 48(%rdi), %xmm0 vxorps 64(%rdi), %xmm0, %xmm0 vmovaps %xmm0, 32(%rsp) movq 80(%rdi), %rbx vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 16(%rsp) leaq 16(%rsp), %rax leaq 32(%rsp), %rsi movq %rdi, %r13 movq %rax, %rdi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) movq %r13, %rdi vmovdqa (%r13), %xmm0 testq %rbx, %rbx je .LBB7_5 vmovdqa 16(%rsp), %xmm1 vpshufb .LCPI7_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm2 movq %r12, %rsi vmovdqa 240(%r12), %xmm3 vpclmulqdq $0, %xmm2, %xmm3, %xmm0 vpclmulqdq $1, %xmm2, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm3, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm2, %xmm3, %xmm2 vmovdqa (%rsp), %xmm5 jmp .LBB7_7 .LBB7_2: cmpq $0, 80(%rdi) vmovdqa (%rdi), %xmm0 je .LBB7_9 vmovdqa 240(%rsi), %xmm2 leaq 48(%rdi), %r15 vmovdqa 64(%rdi), %xmm1 vpshufb .LCPI7_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm3 vpclmulqdq $0, %xmm3, %xmm2, %xmm0 vpclmulqdq $1, %xmm3, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm3, %xmm2, %xmm2 .LBB7_7: vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI7_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm0 jmp .LBB7_8 .LBB7_5: movq %r12, %rsi vmovdqa (%rsp), %xmm5 .LBB7_8: vpxor %xmm1, %xmm1, %xmm1 vmovdqu %ymm1, (%r15) movq $0, 32(%r15) .LBB7_9: vmovdqa 240(%rsi), %xmm1 vmovq 96(%rdi), %xmm2 vmovq %r14, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI7_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rdi) vmovdqa (%rsi), %xmm1 vpxor 16(%rdi), %xmm1, %xmm1 vaesenc 16(%rsi), %xmm1, %xmm1 vaesenc 32(%rsi), %xmm1, %xmm1 vaesenc 48(%rsi), %xmm1, %xmm1 vaesenc 64(%rsi), %xmm1, %xmm1 vaesenc 80(%rsi), %xmm1, %xmm1 vaesenc 96(%rsi), %xmm1, %xmm1 vaesenc 112(%rsi), %xmm1, %xmm1 vaesenc 128(%rsi), %xmm1, %xmm1 vaesenc 144(%rsi), %xmm1, %xmm1 vaesenc 160(%rsi), %xmm1, %xmm1 vaesenc 176(%rsi), %xmm1, %xmm1 vaesenc 192(%rsi), %xmm1, %xmm1 vaesenc 208(%rsi), %xmm1, %xmm1 vaesenclast 224(%rsi), %xmm1, %xmm1 vpshufb .LCPI7_0(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpxor %xmm1, %xmm0, %xmm0 xorl %eax, %eax vptest %xmm0, %xmm0 sete %al addq $48, %rsp .cfi_def_cfa_offset 48 popq %rbx .cfi_def_cfa_offset 40 popq %r12 .cfi_def_cfa_offset 32 popq %r13 .cfi_def_cfa_offset 24 popq %r14 .cfi_def_cfa_offset 16 popq %r15 .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .LBB7_10: vzeroupper retq .Lfunc_end7: .size haberdashery_aes256gcm_streaming_broadwell_decrypt_finalize, .Lfunc_end7-haberdashery_aes256gcm_streaming_broadwell_decrypt_finalize .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
67,075
asm/aes256gcm_skylake.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI0_1: .quad 4294967297 .quad 4294967297 .LCPI0_8: .quad 274877907008 .quad 274877907008 .LCPI0_9: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI0_10: .zero 8 .quad -4467570830351532032 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI0_2: .long 0x00000002 .LCPI0_3: .long 0x0c0f0e0d .LCPI0_4: .long 0x00000004 .LCPI0_5: .long 0x00000008 .LCPI0_6: .long 0x00000010 .LCPI0_7: .long 0x00000020 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_11: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_skylake_init,"ax",@progbits .globl haberdashery_aes256gcm_skylake_init .p2align 4, 0x90 .type haberdashery_aes256gcm_skylake_init,@function haberdashery_aes256gcm_skylake_init: .cfi_startproc cmpq $32, %rdx jne .LBB0_2 pushq %rax .cfi_def_cfa_offset 16 vmovdqu (%rsi), %xmm5 vmovdqu 16(%rsi), %xmm4 vpslldq $4, %xmm5, %xmm0 vpslldq $8, %xmm5, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm5, %xmm1 vpbroadcastd .LCPI0_3(%rip), %xmm2 vpshufb %xmm2, %xmm4, %xmm3 vaesenclast .LCPI0_1(%rip), %xmm3, %xmm3 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm8 vmovdqa %xmm8, -16(%rsp) vaesenc %xmm4, %xmm5, %xmm15 vpslldq $4, %xmm4, %xmm0 vpslldq $8, %xmm4, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm4, %xmm1 vpxor %xmm1, %xmm0, %xmm1 vpshufd $255, %xmm8, %xmm3 vpxor %xmm0, %xmm0, %xmm0 vaesenclast %xmm0, %xmm3, %xmm3 vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm9 vmovdqa %xmm9, -32(%rsp) vbroadcastss .LCPI0_2(%rip), %xmm3 vbroadcastss .LCPI0_3(%rip), %xmm1 #APP vaesenc %xmm8, %xmm15, %xmm15 vpslldq $4, %xmm8, %xmm6 vpslldq $8, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpslldq $12, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpshufb %xmm1, %xmm9, %xmm10 vaesenclast %xmm3, %xmm10, %xmm10 vpxor %xmm6, %xmm10, %xmm10 #NO_APP vmovaps %xmm10, %xmm8 vmovaps %xmm10, -48(%rsp) #APP vaesenc %xmm9, %xmm15, %xmm15 vpslldq $4, %xmm9, %xmm3 vpslldq $8, %xmm9, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpslldq $12, %xmm9, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpxor %xmm3, %xmm9, %xmm3 vpshufd $255, %xmm10, %xmm7 vaesenclast %xmm0, %xmm7, %xmm7 vpxor %xmm3, %xmm7, %xmm7 #NO_APP vbroadcastss .LCPI0_4(%rip), %xmm3 vmovaps %xmm7, %xmm9 vmovaps %xmm7, -64(%rsp) #APP vaesenc %xmm8, %xmm15, %xmm15 vpslldq $4, %xmm8, %xmm6 vpslldq $8, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpslldq $12, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpshufb %xmm1, %xmm9, %xmm10 vaesenclast %xmm3, %xmm10, %xmm10 vpxor %xmm6, %xmm10, %xmm10 #NO_APP vmovaps %xmm10, %xmm7 vmovaps %xmm10, -80(%rsp) #APP vaesenc %xmm9, %xmm15, %xmm15 vpslldq $4, %xmm9, %xmm3 vpslldq $8, %xmm9, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpslldq $12, %xmm9, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpxor %xmm3, %xmm9, %xmm3 vpshufd $255, %xmm10, %xmm8 vaesenclast %xmm0, %xmm8, %xmm8 vpxor %xmm3, %xmm8, %xmm8 #NO_APP vmovaps %xmm8, -96(%rsp) vbroadcastss .LCPI0_5(%rip), %xmm3 #APP vaesenc %xmm7, %xmm15, %xmm15 vpslldq $4, %xmm7, %xmm6 vpslldq $8, %xmm7, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpslldq $12, %xmm7, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpxor %xmm7, %xmm6, %xmm6 vpshufb %xmm1, %xmm8, %xmm10 vaesenclast %xmm3, %xmm10, %xmm10 vpxor %xmm6, %xmm10, %xmm10 #NO_APP vmovaps %xmm10, %xmm7 vmovaps %xmm10, -112(%rsp) #APP vaesenc %xmm8, %xmm15, %xmm15 vpslldq $4, %xmm8, %xmm3 vpslldq $8, %xmm8, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpslldq $12, %xmm8, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpxor %xmm3, %xmm8, %xmm3 vpshufd $255, %xmm10, %xmm9 vaesenclast %xmm0, %xmm9, %xmm9 vpxor %xmm3, %xmm9, %xmm9 #NO_APP vbroadcastss .LCPI0_6(%rip), %xmm3 #APP vaesenc %xmm7, %xmm15, %xmm15 vpslldq $4, %xmm7, %xmm6 vpslldq $8, %xmm7, %xmm11 vpxor %xmm6, %xmm11, %xmm6 vpslldq $12, %xmm7, %xmm11 vpxor %xmm6, %xmm11, %xmm6 vpxor %xmm7, %xmm6, %xmm6 vpshufb %xmm1, %xmm9, %xmm10 vaesenclast %xmm3, %xmm10, %xmm10 vpxor %xmm6, %xmm10, %xmm10 #NO_APP #APP vaesenc %xmm9, %xmm15, %xmm15 vpslldq $4, %xmm9, %xmm3 vpslldq $8, %xmm9, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpslldq $12, %xmm9, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpxor %xmm3, %xmm9, %xmm3 vpshufd $255, %xmm10, %xmm11 vaesenclast %xmm0, %xmm11, %xmm11 vpxor %xmm3, %xmm11, %xmm11 #NO_APP vbroadcastss .LCPI0_7(%rip), %xmm3 #APP vaesenc %xmm10, %xmm15, %xmm15 vpslldq $4, %xmm10, %xmm6 vpslldq $8, %xmm10, %xmm13 vpxor %xmm6, %xmm13, %xmm6 vpslldq $12, %xmm10, %xmm13 vpxor %xmm6, %xmm13, %xmm6 vpxor %xmm6, %xmm10, %xmm6 vpshufb %xmm1, %xmm11, %xmm12 vaesenclast %xmm3, %xmm12, %xmm12 vpxor %xmm6, %xmm12, %xmm12 #NO_APP vpslldq $4, %xmm11, %xmm1 vpunpcklqdq %xmm11, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vinsertps $55, %xmm11, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpshufd $255, %xmm12, %xmm3 vaesenclast %xmm0, %xmm3, %xmm3 vpxor %xmm1, %xmm11, %xmm1 vpxor %xmm1, %xmm3, %xmm13 vpslldq $4, %xmm12, %xmm1 vpunpcklqdq %xmm12, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vinsertps $55, %xmm12, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpshufb %xmm2, %xmm13, %xmm2 vaesenclast .LCPI0_8(%rip), %xmm2, %xmm2 vpxor %xmm1, %xmm12, %xmm1 vpxor %xmm1, %xmm2, %xmm2 vmovdqa %xmm2, -128(%rsp) vaesenc %xmm11, %xmm15, %xmm1 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm13, %xmm1, %xmm1 vaesenclast %xmm2, %xmm1, %xmm1 vpshufb .LCPI0_9(%rip), %xmm1, %xmm1 vpsrlq $63, %xmm1, %xmm2 vpaddq %xmm1, %xmm1, %xmm1 vpshufd $78, %xmm2, %xmm3 vpor %xmm3, %xmm1, %xmm1 vpblendd $12, %xmm2, %xmm0, %xmm0 vpsllq $63, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpsllq $62, %xmm0, %xmm2 vpsllq $57, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpxor %xmm0, %xmm1, %xmm15 vpclmulqdq $0, %xmm15, %xmm15, %xmm0 vpbroadcastq .LCPI0_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $17, %xmm15, %xmm15, %xmm1 vpshufd $78, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm2, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm1 vpclmulqdq $16, %xmm15, %xmm1, %xmm0 vpclmulqdq $1, %xmm15, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $0, %xmm15, %xmm1, %xmm3 vpslldq $8, %xmm0, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm3, %xmm6 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm6, %xmm3 vpsrldq $8, %xmm0, %xmm0 vpclmulqdq $17, %xmm15, %xmm1, %xmm6 vpxor %xmm0, %xmm6, %xmm0 vpshufd $78, %xmm3, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $16, %xmm2, %xmm3, %xmm3 vpxor %xmm3, %xmm0, %xmm3 vpclmulqdq $0, %xmm3, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm6 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm6, %xmm0 vpclmulqdq $17, %xmm3, %xmm3, %xmm6 vpshufd $78, %xmm0, %xmm14 vpxor %xmm6, %xmm14, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm1, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm14 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm0 vpclmulqdq $17, %xmm1, %xmm1, %xmm14 vpshufd $78, %xmm0, %xmm7 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $16, %xmm2, %xmm0, %xmm0 vpxor %xmm0, %xmm7, %xmm0 vpclmulqdq $16, %xmm15, %xmm0, %xmm7 vpclmulqdq $1, %xmm15, %xmm0, %xmm14 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $0, %xmm15, %xmm0, %xmm14 vpslldq $8, %xmm7, %xmm8 vpxor %xmm8, %xmm14, %xmm8 vpclmulqdq $16, %xmm2, %xmm8, %xmm14 vpshufd $78, %xmm8, %xmm8 vpxor %xmm8, %xmm14, %xmm8 vpsrldq $8, %xmm7, %xmm7 vpclmulqdq $17, %xmm15, %xmm0, %xmm14 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $16, %xmm2, %xmm8, %xmm2 vpshufd $78, %xmm8, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor %xmm2, %xmm7, %xmm2 vmovdqa %xmm5, (%rdi) vmovdqa %xmm4, 16(%rdi) vmovaps -16(%rsp), %xmm4 vmovaps %xmm4, 32(%rdi) vmovaps -32(%rsp), %xmm4 vmovaps %xmm4, 48(%rdi) vmovaps -48(%rsp), %xmm4 vmovaps %xmm4, 64(%rdi) vmovaps -64(%rsp), %xmm4 vmovaps %xmm4, 80(%rdi) vmovaps -80(%rsp), %xmm4 vmovaps %xmm4, 96(%rdi) vmovaps -96(%rsp), %xmm4 vmovaps %xmm4, 112(%rdi) vmovaps -112(%rsp), %xmm4 vmovaps %xmm4, 128(%rdi) vmovaps %xmm9, 144(%rdi) vmovaps %xmm10, 160(%rdi) vmovaps %xmm11, 176(%rdi) vmovaps %xmm12, 192(%rdi) vmovdqa %xmm13, 208(%rdi) vmovaps -128(%rsp), %xmm4 vmovaps %xmm4, 224(%rdi) vmovdqa %xmm15, 240(%rdi) vmovdqa %xmm1, 256(%rdi) vmovdqa %xmm3, 272(%rdi) vmovdqa %xmm0, 288(%rdi) vmovdqa %xmm2, 304(%rdi) vmovdqa %xmm6, 320(%rdi) addq $8, %rsp .cfi_def_cfa_offset 8 .LBB0_2: xorl %eax, %eax cmpq $32, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes256gcm_skylake_init, .Lfunc_end0-haberdashery_aes256gcm_skylake_init .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI1_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_1: .long 1 .long 0 .long 0 .long 0 .LCPI1_2: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_3: .zero 8 .quad -4467570830351532032 .LCPI1_4: .long 2 .long 0 .long 0 .long 0 .LCPI1_5: .long 3 .long 0 .long 0 .long 0 .LCPI1_6: .long 4 .long 0 .long 0 .long 0 .LCPI1_7: .long 5 .long 0 .long 0 .long 0 .LCPI1_8: .long 6 .long 0 .long 0 .long 0 .LCPI1_9: .long 7 .long 0 .long 0 .long 0 .LCPI1_10: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_11: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_12: .zero 16 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI1_13: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_skylake_encrypt,"ax",@progbits .globl haberdashery_aes256gcm_skylake_encrypt .p2align 4, 0x90 .type haberdashery_aes256gcm_skylake_encrypt,@function haberdashery_aes256gcm_skylake_encrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $456, %rsp .cfi_def_cfa_offset 512 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 512(%rsp), %r15 xorl %eax, %eax cmpq 528(%rsp), %r15 jne .LBB1_40 cmpq $16, 544(%rsp) setne %r10b movabsq $2305843009213693950, %r11 cmpq %r11, %r8 seta %r11b orb %r10b, %r11b jne .LBB1_40 movq %r15, %r10 shrq $5, %r10 cmpq $2147483647, %r10 setae %r10b cmpq $12, %rdx setne %dl orb %r10b, %dl jne .LBB1_40 vmovd (%rsi), %xmm0 vpinsrd $1, 4(%rsi), %xmm0, %xmm0 vpinsrd $2, 8(%rsi), %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm0 vmovdqa %xmm0, 144(%rsp) vpxor %xmm5, %xmm5, %xmm5 testq %r8, %r8 je .LBB1_19 cmpq $96, %r8 jb .LBB1_5 vmovdqu (%rcx), %xmm1 vmovdqu 16(%rcx), %xmm2 vmovdqu 32(%rcx), %xmm3 vmovdqu 48(%rcx), %xmm4 vmovdqu 64(%rcx), %xmm5 vmovdqu 80(%rcx), %xmm6 vmovdqa .LCPI1_2(%rip), %xmm0 vpshufb %xmm0, %xmm1, %xmm7 vpshufb %xmm0, %xmm2, %xmm10 vpshufb %xmm0, %xmm3, %xmm8 vpshufb %xmm0, %xmm4, %xmm9 vpshufb %xmm0, %xmm5, %xmm5 vpshufb %xmm0, %xmm6, %xmm6 vmovdqa 240(%rdi), %xmm1 vmovdqa 256(%rdi), %xmm2 vmovdqa 272(%rdi), %xmm3 vmovdqa 288(%rdi), %xmm4 vpclmulqdq $0, %xmm6, %xmm1, %xmm11 vpclmulqdq $1, %xmm6, %xmm1, %xmm12 vpclmulqdq $16, %xmm6, %xmm1, %xmm13 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm6, %xmm1, %xmm6 vpclmulqdq $0, %xmm5, %xmm2, %xmm13 vpxor %xmm11, %xmm13, %xmm11 vpclmulqdq $1, %xmm5, %xmm2, %xmm13 vpclmulqdq $16, %xmm5, %xmm2, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpclmulqdq $17, %xmm5, %xmm2, %xmm5 vpxor %xmm6, %xmm5, %xmm13 vpclmulqdq $0, %xmm9, %xmm3, %xmm5 vpclmulqdq $1, %xmm9, %xmm3, %xmm6 vpclmulqdq $16, %xmm9, %xmm3, %xmm14 vpxor %xmm6, %xmm14, %xmm6 vpclmulqdq $0, %xmm8, %xmm4, %xmm14 vpxor %xmm5, %xmm14, %xmm14 vmovdqa 304(%rdi), %xmm5 vpxor %xmm14, %xmm11, %xmm11 vpclmulqdq $1, %xmm8, %xmm4, %xmm14 vpxor %xmm6, %xmm14, %xmm14 vmovdqa 320(%rdi), %xmm6 vpclmulqdq $17, %xmm9, %xmm3, %xmm9 vpxor %xmm14, %xmm12, %xmm12 vpclmulqdq $16, %xmm8, %xmm4, %xmm14 vpclmulqdq $17, %xmm8, %xmm4, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpxor %xmm8, %xmm13, %xmm13 vpclmulqdq $0, %xmm10, %xmm5, %xmm8 vpclmulqdq $1, %xmm10, %xmm5, %xmm9 vpxor %xmm9, %xmm14, %xmm9 vpclmulqdq $16, %xmm10, %xmm5, %xmm14 vpxor %xmm14, %xmm9, %xmm9 vpclmulqdq $0, %xmm7, %xmm6, %xmm14 vpxor %xmm14, %xmm8, %xmm8 vpxor %xmm8, %xmm11, %xmm8 vpclmulqdq $1, %xmm7, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpxor %xmm9, %xmm12, %xmm9 vpclmulqdq $16, %xmm7, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $17, %xmm10, %xmm5, %xmm10 vpclmulqdq $17, %xmm7, %xmm6, %xmm7 vpxor %xmm7, %xmm10, %xmm7 vpxor %xmm7, %xmm13, %xmm10 addq $96, %rcx leaq -96(%r8), %rsi cmpq $96, %rsi jb .LBB1_18 .p2align 4, 0x90 .LBB1_17: vmovdqu (%rcx), %xmm11 vmovdqu 32(%rcx), %xmm12 vmovdqu 48(%rcx), %xmm13 vmovdqu 64(%rcx), %xmm14 vmovdqu 80(%rcx), %xmm15 vpslldq $8, %xmm9, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpsrldq $8, %xmm9, %xmm8 vpxor %xmm8, %xmm10, %xmm8 vpbroadcastq .LCPI1_13(%rip), %xmm10 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpshufb %xmm0, %xmm11, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor %xmm7, %xmm9, %xmm10 vpshufb %xmm0, %xmm12, %xmm8 vpshufb %xmm0, %xmm13, %xmm7 vpshufb %xmm0, %xmm14, %xmm9 vpshufb %xmm0, %xmm15, %xmm11 vpclmulqdq $0, %xmm11, %xmm1, %xmm12 vpclmulqdq $1, %xmm11, %xmm1, %xmm13 vpclmulqdq $16, %xmm11, %xmm1, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $17, %xmm11, %xmm1, %xmm11 vpclmulqdq $0, %xmm9, %xmm2, %xmm14 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $1, %xmm9, %xmm2, %xmm14 vpclmulqdq $16, %xmm9, %xmm2, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpclmulqdq $17, %xmm9, %xmm2, %xmm9 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $0, %xmm7, %xmm3, %xmm11 vpclmulqdq $1, %xmm7, %xmm3, %xmm14 vpclmulqdq $16, %xmm7, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $0, %xmm8, %xmm4, %xmm15 vpxor %xmm15, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $1, %xmm8, %xmm4, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $17, %xmm7, %xmm3, %xmm7 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm8, %xmm4, %xmm13 vpxor %xmm7, %xmm13, %xmm7 vmovdqu 16(%rcx), %xmm13 vpshufb %xmm0, %xmm13, %xmm13 vpclmulqdq $16, %xmm8, %xmm4, %xmm8 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm13, %xmm5, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $1, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $16, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpxor %xmm8, %xmm12, %xmm11 vpclmulqdq $17, %xmm13, %xmm5, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm10, %xmm6, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $1, %xmm10, %xmm6, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $16, %xmm10, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $17, %xmm10, %xmm6, %xmm10 vpxor %xmm7, %xmm10, %xmm10 addq $96, %rcx addq $-96, %rsi cmpq $95, %rsi ja .LBB1_17 .LBB1_18: vpslldq $8, %xmm9, %xmm0 vpxor %xmm0, %xmm8, %xmm0 vpsrldq $8, %xmm9, %xmm1 vpxor %xmm1, %xmm10, %xmm1 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm5 cmpq $16, %rsi jae .LBB1_7 jmp .LBB1_12 .LBB1_19: testq %r15, %r15 jne .LBB1_24 jmp .LBB1_39 .LBB1_5: movq %r8, %rsi cmpq $16, %rsi jb .LBB1_12 .LBB1_7: vmovdqa 240(%rdi), %xmm0 leaq -16(%rsi), %rdx testb $16, %dl je .LBB1_8 cmpq $16, %rdx jae .LBB1_10 .LBB1_13: testq %rdx, %rdx je .LBB1_20 .LBB1_14: vmovdqa %xmm5, 32(%rsp) movq %r9, %r14 movq %r8, %rbx movq %rdi, %r12 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 16(%rsp) leaq 16(%rsp), %rdi movq %rcx, %rsi callq *memcpy@GOTPCREL(%rip) vmovdqa 16(%rsp), %xmm0 testq %r15, %r15 je .LBB1_15 movabsq $-68719476704, %rax leaq (%r15,%rax), %rcx incq %rax cmpq %rax, %rcx movl $0, %eax vmovdqa 32(%rsp), %xmm2 jb .LBB1_40 movq %r12, %rdi movq %rbx, %r8 movq %r14, %r9 vmovdqa 240(%r12), %xmm1 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm5 jmp .LBB1_24 .LBB1_8: vmovdqu (%rcx), %xmm1 addq $16, %rcx vpshufb .LCPI1_2(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpbroadcastq .LCPI1_13(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm3, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm5 movq %rdx, %rsi cmpq $16, %rdx jb .LBB1_13 .LBB1_10: vmovdqa .LCPI1_2(%rip), %xmm1 vpbroadcastq .LCPI1_13(%rip), %xmm2 .p2align 4, 0x90 .LBB1_11: vmovdqu (%rcx), %xmm3 vmovdqu 16(%rcx), %xmm4 vpshufb %xmm1, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpclmulqdq $1, %xmm3, %xmm0, %xmm6 vpclmulqdq $16, %xmm3, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $16, %xmm2, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 addq $32, %rcx addq $-32, %rsi vpshufb %xmm1, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm6, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm4 vpclmulqdq $1, %xmm3, %xmm0, %xmm5 vpclmulqdq $16, %xmm3, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm5 cmpq $15, %rsi ja .LBB1_11 .LBB1_12: movq %rsi, %rdx testq %rdx, %rdx jne .LBB1_14 .LBB1_20: testq %r15, %r15 je .LBB1_39 movabsq $-68719476704, %rcx leaq (%r15,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB1_40 .LBB1_24: movq 520(%rsp), %rdx vmovdqa 144(%rsp), %xmm0 vpshufb .LCPI1_0(%rip), %xmm0, %xmm1 vpaddd .LCPI1_1(%rip), %xmm1, %xmm0 cmpq $96, %r15 jb .LBB1_25 vmovdqa %xmm5, %xmm8 leaq 96(%r9), %rcx leaq 96(%rdx), %rax vmovdqa .LCPI1_2(%rip), %xmm10 vpshufb %xmm10, %xmm0, %xmm2 vpaddd .LCPI1_4(%rip), %xmm1, %xmm3 vpshufb %xmm10, %xmm3, %xmm3 vpaddd .LCPI1_5(%rip), %xmm1, %xmm4 vpshufb %xmm10, %xmm4, %xmm4 vpaddd .LCPI1_6(%rip), %xmm1, %xmm5 vpshufb %xmm10, %xmm5, %xmm5 vpaddd .LCPI1_7(%rip), %xmm1, %xmm6 vpshufb %xmm10, %xmm6, %xmm6 vpaddd .LCPI1_8(%rip), %xmm1, %xmm7 vpshufb %xmm10, %xmm7, %xmm7 vpaddd .LCPI1_9(%rip), %xmm1, %xmm0 vmovdqa (%rdi), %xmm1 vmovdqa 16(%rdi), %xmm12 vmovaps 32(%rdi), %xmm9 vmovaps 48(%rdi), %xmm11 vpxor %xmm2, %xmm1, %xmm2 vpxor %xmm3, %xmm1, %xmm3 vpxor %xmm4, %xmm1, %xmm4 vpxor %xmm5, %xmm1, %xmm5 vpxor %xmm6, %xmm1, %xmm6 vpxor %xmm7, %xmm1, %xmm7 vmovdqa %xmm12, 288(%rsp) #APP vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm12, %xmm6, %xmm6 vaesenc %xmm12, %xmm7, %xmm7 #NO_APP vmovaps %xmm9, 112(%rsp) #APP vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm9, %xmm6, %xmm6 vaesenc %xmm9, %xmm7, %xmm7 #NO_APP vmovaps %xmm11, 96(%rsp) #APP vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 #NO_APP vmovaps 64(%rdi), %xmm9 vmovaps %xmm9, 80(%rsp) #APP vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm9, %xmm6, %xmm6 vaesenc %xmm9, %xmm7, %xmm7 #NO_APP vmovaps 80(%rdi), %xmm9 vmovaps %xmm9, 64(%rsp) #APP vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm9, %xmm6, %xmm6 vaesenc %xmm9, %xmm7, %xmm7 #NO_APP vmovaps 96(%rdi), %xmm9 vmovaps %xmm9, 416(%rsp) #APP vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm9, %xmm6, %xmm6 vaesenc %xmm9, %xmm7, %xmm7 #NO_APP vmovaps 112(%rdi), %xmm9 vmovaps %xmm9, 400(%rsp) #APP vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm9, %xmm6, %xmm6 vaesenc %xmm9, %xmm7, %xmm7 #NO_APP vmovaps 128(%rdi), %xmm9 vmovaps %xmm9, 384(%rsp) #APP vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm9, %xmm6, %xmm6 vaesenc %xmm9, %xmm7, %xmm7 #NO_APP vmovaps 144(%rdi), %xmm9 vmovaps %xmm9, 368(%rsp) #APP vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm9, %xmm6, %xmm6 vaesenc %xmm9, %xmm7, %xmm7 #NO_APP vmovaps 160(%rdi), %xmm9 vmovaps %xmm9, 352(%rsp) #APP vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm9, %xmm6, %xmm6 vaesenc %xmm9, %xmm7, %xmm7 #NO_APP vmovaps 176(%rdi), %xmm9 vmovaps %xmm9, 336(%rsp) #APP vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm9, %xmm6, %xmm6 vaesenc %xmm9, %xmm7, %xmm7 #NO_APP vmovaps 192(%rdi), %xmm9 vmovaps %xmm9, 320(%rsp) #APP vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm9, %xmm6, %xmm6 vaesenc %xmm9, %xmm7, %xmm7 #NO_APP vmovaps 208(%rdi), %xmm9 vmovaps %xmm9, 304(%rsp) #APP vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm9, %xmm6, %xmm6 vaesenc %xmm9, %xmm7, %xmm7 #NO_APP vmovaps 224(%rdi), %xmm9 #APP vaesenclast %xmm9, %xmm2, %xmm2 vaesenclast %xmm9, %xmm3, %xmm3 vaesenclast %xmm9, %xmm4, %xmm4 vaesenclast %xmm9, %xmm5, %xmm5 vaesenclast %xmm9, %xmm6, %xmm6 vaesenclast %xmm9, %xmm7, %xmm7 #NO_APP vpxor (%r9), %xmm2, %xmm15 vpxor 16(%r9), %xmm3, %xmm3 vpxor 32(%r9), %xmm4, %xmm4 vpxor 48(%r9), %xmm5, %xmm11 vpxor 64(%r9), %xmm6, %xmm13 vpxor 80(%r9), %xmm7, %xmm14 vmovdqu %xmm15, (%rdx) vmovdqu %xmm3, 16(%rdx) vmovdqu %xmm4, 32(%rdx) vmovdqu %xmm11, 48(%rdx) leaq -96(%r15), %rbx vmovdqu %xmm13, 64(%rdx) vmovdqu %xmm14, 80(%rdx) cmpq $96, %rbx jb .LBB1_32 vmovaps 240(%rdi), %xmm2 vmovaps %xmm2, 272(%rsp) vmovaps 256(%rdi), %xmm2 vmovaps %xmm2, 256(%rsp) vmovaps 272(%rdi), %xmm2 vmovaps %xmm2, 240(%rsp) vmovaps 288(%rdi), %xmm2 vmovaps %xmm2, 224(%rsp) vmovaps 304(%rdi), %xmm2 vmovaps %xmm2, 208(%rsp) vmovdqa 320(%rdi), %xmm2 vmovdqa %xmm2, 192(%rsp) vmovdqa %xmm1, 176(%rsp) vmovaps %xmm9, 160(%rsp) .p2align 4, 0x90 .LBB1_34: vmovdqa %xmm4, 128(%rsp) vmovdqa %xmm3, 48(%rsp) vmovdqa %xmm0, (%rsp) vpshufb %xmm10, %xmm0, %xmm3 vpaddd .LCPI1_1(%rip), %xmm0, %xmm4 vpshufb %xmm10, %xmm4, %xmm4 vmovdqa %xmm8, %xmm12 vpaddd .LCPI1_4(%rip), %xmm0, %xmm5 vpshufb %xmm10, %xmm5, %xmm5 vpaddd .LCPI1_5(%rip), %xmm0, %xmm6 vpshufb %xmm10, %xmm6, %xmm6 vpaddd .LCPI1_6(%rip), %xmm0, %xmm7 vpshufb %xmm10, %xmm7, %xmm7 vpaddd .LCPI1_7(%rip), %xmm0, %xmm8 vpshufb %xmm10, %xmm8, %xmm8 vmovdqa %xmm10, %xmm1 vpshufb %xmm10, %xmm15, %xmm10 vpxor %xmm10, %xmm12, %xmm0 vmovdqa %xmm0, 32(%rsp) vpshufb %xmm1, %xmm14, %xmm0 vmovdqa 176(%rsp), %xmm2 vpxor %xmm3, %xmm2, %xmm14 vpxor %xmm4, %xmm2, %xmm3 vpxor %xmm5, %xmm2, %xmm4 vpxor %xmm6, %xmm2, %xmm5 vpxor %xmm7, %xmm2, %xmm6 vpxor %xmm2, %xmm8, %xmm7 vmovaps 288(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm14, %xmm14 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm4, %xmm4 vaesenc %xmm2, %xmm5, %xmm5 vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 #NO_APP vpxor %xmm8, %xmm8, %xmm8 vpxor %xmm10, %xmm10, %xmm10 vpxor %xmm12, %xmm12, %xmm12 vmovaps 272(%rsp), %xmm2 vmovaps 112(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm9, %xmm6, %xmm6 vaesenc %xmm9, %xmm7, %xmm7 vpclmulqdq $16, %xmm2, %xmm0, %xmm15 vpxor %xmm15, %xmm10, %xmm10 vpclmulqdq $0, %xmm2, %xmm0, %xmm15 vpxor %xmm15, %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm15 vpxor %xmm15, %xmm12, %xmm12 vpclmulqdq $1, %xmm2, %xmm0, %xmm15 vpxor %xmm15, %xmm10, %xmm10 #NO_APP vpshufb %xmm1, %xmm13, %xmm0 vmovaps 96(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm14, %xmm14 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm4, %xmm4 vaesenc %xmm2, %xmm5, %xmm5 vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 #NO_APP vmovaps 256(%rsp), %xmm2 vmovaps 80(%rsp), %xmm15 #APP vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm15, %xmm3, %xmm3 vaesenc %xmm15, %xmm4, %xmm4 vaesenc %xmm15, %xmm5, %xmm5 vaesenc %xmm15, %xmm6, %xmm6 vaesenc %xmm15, %xmm7, %xmm7 vpclmulqdq $16, %xmm2, %xmm0, %xmm13 vpxor %xmm13, %xmm10, %xmm10 vpclmulqdq $0, %xmm2, %xmm0, %xmm13 vpxor %xmm13, %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpclmulqdq $1, %xmm2, %xmm0, %xmm13 vpxor %xmm13, %xmm10, %xmm10 #NO_APP vpshufb %xmm1, %xmm11, %xmm0 vmovaps 64(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm14, %xmm14 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm4, %xmm4 vaesenc %xmm2, %xmm5, %xmm5 vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 #NO_APP vmovaps 240(%rsp), %xmm2 vmovaps 416(%rsp), %xmm13 #APP vaesenc %xmm13, %xmm14, %xmm14 vaesenc %xmm13, %xmm3, %xmm3 vaesenc %xmm13, %xmm4, %xmm4 vaesenc %xmm13, %xmm5, %xmm5 vaesenc %xmm13, %xmm6, %xmm6 vaesenc %xmm13, %xmm7, %xmm7 vpclmulqdq $16, %xmm2, %xmm0, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpclmulqdq $0, %xmm2, %xmm0, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm11 vpxor %xmm11, %xmm12, %xmm12 vpclmulqdq $1, %xmm2, %xmm0, %xmm11 vpxor %xmm11, %xmm10, %xmm10 #NO_APP vmovdqa 128(%rsp), %xmm0 vpshufb %xmm1, %xmm0, %xmm0 vmovaps 400(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm14, %xmm14 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm4, %xmm4 vaesenc %xmm2, %xmm5, %xmm5 vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 #NO_APP vmovaps 224(%rsp), %xmm2 vmovaps 384(%rsp), %xmm11 #APP vaesenc %xmm11, %xmm14, %xmm14 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 vpclmulqdq $16, %xmm2, %xmm0, %xmm9 vpxor %xmm9, %xmm10, %xmm10 vpclmulqdq $0, %xmm2, %xmm0, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm9 vpxor %xmm9, %xmm12, %xmm12 vpclmulqdq $1, %xmm2, %xmm0, %xmm9 vpxor %xmm9, %xmm10, %xmm10 #NO_APP vmovdqa 48(%rsp), %xmm0 vpshufb %xmm1, %xmm0, %xmm0 vmovaps 368(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm14, %xmm14 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm4, %xmm4 vaesenc %xmm2, %xmm5, %xmm5 vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 #NO_APP vmovaps 208(%rsp), %xmm9 vmovaps 352(%rsp), %xmm11 #APP vaesenc %xmm11, %xmm14, %xmm14 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 vpclmulqdq $16, %xmm9, %xmm0, %xmm2 vpxor %xmm2, %xmm10, %xmm10 vpclmulqdq $0, %xmm9, %xmm0, %xmm2 vpxor %xmm2, %xmm8, %xmm8 vpclmulqdq $17, %xmm9, %xmm0, %xmm2 vpxor %xmm2, %xmm12, %xmm12 vpclmulqdq $1, %xmm9, %xmm0, %xmm2 vpxor %xmm2, %xmm10, %xmm10 #NO_APP vmovaps 336(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm7, %xmm7 #NO_APP vmovdqa 192(%rsp), %xmm2 vmovaps 320(%rsp), %xmm9 vmovaps 32(%rsp), %xmm11 #APP vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm9, %xmm6, %xmm6 vaesenc %xmm9, %xmm7, %xmm7 vpclmulqdq $16, %xmm2, %xmm11, %xmm0 vpxor %xmm0, %xmm10, %xmm10 vpclmulqdq $0, %xmm2, %xmm11, %xmm0 vpxor %xmm0, %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm11, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpclmulqdq $1, %xmm2, %xmm11, %xmm0 vpxor %xmm0, %xmm10, %xmm10 #NO_APP vpxor %xmm2, %xmm2, %xmm2 vpunpcklqdq %xmm10, %xmm2, %xmm0 vpxor %xmm0, %xmm8, %xmm0 vpunpckhqdq %xmm2, %xmm10, %xmm2 vmovdqa %xmm1, %xmm10 vpxor %xmm2, %xmm12, %xmm2 vpbroadcastq .LCPI1_13(%rip), %xmm1 vpclmulqdq $16, %xmm1, %xmm0, %xmm8 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm8, %xmm0 vpshufd $78, %xmm0, %xmm8 vpxor %xmm2, %xmm8, %xmm8 vmovaps 304(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm14, %xmm14 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm4, %xmm4 vaesenc %xmm2, %xmm5, %xmm5 vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 #NO_APP vmovdqa 160(%rsp), %xmm2 #APP vaesenclast %xmm2, %xmm14, %xmm14 vaesenclast %xmm2, %xmm3, %xmm3 vaesenclast %xmm2, %xmm4, %xmm4 vaesenclast %xmm2, %xmm5, %xmm5 vaesenclast %xmm2, %xmm6, %xmm6 vaesenclast %xmm2, %xmm7, %xmm7 #NO_APP vpclmulqdq $16, %xmm1, %xmm0, %xmm0 vpxor (%rcx), %xmm14, %xmm15 vpxor 16(%rcx), %xmm3, %xmm3 vpxor 32(%rcx), %xmm4, %xmm4 vpxor 48(%rcx), %xmm5, %xmm11 vpxor 64(%rcx), %xmm6, %xmm13 vpxor 80(%rcx), %xmm7, %xmm14 vpxor %xmm0, %xmm8, %xmm8 vmovdqa (%rsp), %xmm0 addq $96, %rcx vmovdqu %xmm15, (%rax) vmovdqu %xmm3, 16(%rax) vmovdqu %xmm4, 32(%rax) vmovdqu %xmm11, 48(%rax) vmovdqu %xmm13, 64(%rax) vmovdqu %xmm14, 80(%rax) addq $96, %rax addq $-96, %rbx vpaddd .LCPI1_8(%rip), %xmm0, %xmm0 cmpq $95, %rbx ja .LBB1_34 .LBB1_32: vmovdqa %xmm0, (%rsp) vpshufb %xmm10, %xmm15, %xmm1 vpxor %xmm1, %xmm8, %xmm1 vpshufb %xmm10, %xmm3, %xmm2 vpshufb %xmm10, %xmm4, %xmm4 vpshufb %xmm10, %xmm11, %xmm5 vpshufb %xmm10, %xmm13, %xmm6 vpshufb %xmm10, %xmm14, %xmm7 vmovdqa 240(%rdi), %xmm8 vmovdqa 256(%rdi), %xmm9 vmovdqa 272(%rdi), %xmm10 vmovdqa 288(%rdi), %xmm11 vmovdqa 304(%rdi), %xmm3 vmovdqa 320(%rdi), %xmm0 vpclmulqdq $0, %xmm7, %xmm8, %xmm12 vpclmulqdq $1, %xmm7, %xmm8, %xmm13 vpclmulqdq $16, %xmm7, %xmm8, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $17, %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm6, %xmm9, %xmm8 vpxor %xmm12, %xmm8, %xmm8 vpclmulqdq $1, %xmm6, %xmm9, %xmm12 vpclmulqdq $16, %xmm6, %xmm9, %xmm14 vpxor %xmm14, %xmm12, %xmm12 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm6, %xmm9, %xmm6 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm10, %xmm7 vpclmulqdq $1, %xmm5, %xmm10, %xmm9 vpclmulqdq $16, %xmm5, %xmm10, %xmm13 vpxor %xmm13, %xmm9, %xmm9 vpclmulqdq $17, %xmm5, %xmm10, %xmm5 vpclmulqdq $0, %xmm4, %xmm11, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $1, %xmm4, %xmm11, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpxor %xmm8, %xmm12, %xmm8 vpclmulqdq $16, %xmm4, %xmm11, %xmm9 vpclmulqdq $17, %xmm4, %xmm11, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $0, %xmm2, %xmm3, %xmm5 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $1, %xmm2, %xmm3, %xmm6 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $16, %xmm2, %xmm3, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm2, %xmm3, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $0, %xmm1, %xmm0, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $1, %xmm1, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm1, %xmm0, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpslldq $8, %xmm4, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpsrldq $8, %xmm4, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm2, %xmm0, %xmm5 movq %rax, %rdx movq %rcx, %r9 cmpq $16, %rbx jae .LBB1_35 .LBB1_27: movq %rdx, %r14 movq %r9, %rsi vmovdqa (%rsp), %xmm6 jmp .LBB1_28 .LBB1_25: vmovdqa %xmm0, (%rsp) movq %r15, %rbx cmpq $16, %rbx jb .LBB1_27 .LBB1_35: vmovaps (%rdi), %xmm0 vmovaps %xmm0, 32(%rsp) vmovaps 16(%rdi), %xmm0 vmovaps %xmm0, 48(%rsp) vmovaps 32(%rdi), %xmm0 vmovaps %xmm0, 128(%rsp) vmovaps 48(%rdi), %xmm0 vmovaps %xmm0, 112(%rsp) vmovaps 64(%rdi), %xmm0 vmovaps %xmm0, 96(%rsp) vmovaps 80(%rdi), %xmm0 vmovaps %xmm0, 80(%rsp) vmovaps 96(%rdi), %xmm0 vmovaps %xmm0, 64(%rsp) vmovdqa 112(%rdi), %xmm7 vmovdqa 128(%rdi), %xmm8 vmovdqa 144(%rdi), %xmm9 vmovdqa 160(%rdi), %xmm10 vmovdqa 176(%rdi), %xmm11 vmovdqa 192(%rdi), %xmm12 vmovdqa 208(%rdi), %xmm13 vmovdqa 224(%rdi), %xmm14 vmovdqa 240(%rdi), %xmm15 vmovdqa .LCPI1_2(%rip), %xmm0 vpbroadcastq .LCPI1_13(%rip), %xmm1 vmovdqa (%rsp), %xmm6 .p2align 4, 0x90 .LBB1_36: vpshufb %xmm0, %xmm6, %xmm2 vpxor 32(%rsp), %xmm2, %xmm2 vaesenc 48(%rsp), %xmm2, %xmm2 vaesenc 128(%rsp), %xmm2, %xmm2 vaesenc 112(%rsp), %xmm2, %xmm2 vaesenc 96(%rsp), %xmm2, %xmm2 vaesenc 80(%rsp), %xmm2, %xmm2 vaesenc 64(%rsp), %xmm2, %xmm2 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm13, %xmm2, %xmm2 vaesenclast %xmm14, %xmm2, %xmm2 vpxor (%r9), %xmm2, %xmm2 vmovdqu %xmm2, (%rdx) vpshufb %xmm0, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $0, %xmm2, %xmm15, %xmm3 vpclmulqdq $1, %xmm2, %xmm15, %xmm4 vpclmulqdq $16, %xmm2, %xmm15, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $17, %xmm2, %xmm15, %xmm2 vpsrldq $8, %xmm4, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $16, %xmm1, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpshufd $78, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $16, %xmm1, %xmm3, %xmm3 vpxor %xmm2, %xmm3, %xmm5 leaq 16(%r9), %rsi leaq 16(%rdx), %r14 addq $-16, %rbx vpaddd .LCPI1_1(%rip), %xmm6, %xmm6 movq %r14, %rdx movq %rsi, %r9 cmpq $15, %rbx ja .LBB1_36 .LBB1_28: vmovdqa %xmm6, (%rsp) testq %rbx, %rbx je .LBB1_39 vmovdqa %xmm5, 32(%rsp) movq %r8, 48(%rsp) vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 16(%rsp) leaq 16(%rsp), %rax movq memcpy@GOTPCREL(%rip), %rbp movq %rdi, %r13 movq %rax, %rdi movq %rbx, %rdx callq *%rbp vmovdqa (%rsp), %xmm0 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor (%r13), %xmm0, %xmm0 vaesenc 16(%r13), %xmm0, %xmm0 vaesenc 32(%r13), %xmm0, %xmm0 vaesenc 48(%r13), %xmm0, %xmm0 vaesenc 64(%r13), %xmm0, %xmm0 vaesenc 80(%r13), %xmm0, %xmm0 vaesenc 96(%r13), %xmm0, %xmm0 vaesenc 112(%r13), %xmm0, %xmm0 vaesenc 128(%r13), %xmm0, %xmm0 vaesenc 144(%r13), %xmm0, %xmm0 vaesenc 160(%r13), %xmm0, %xmm0 vaesenc 176(%r13), %xmm0, %xmm0 vaesenc 192(%r13), %xmm0, %xmm0 vaesenc 208(%r13), %xmm0, %xmm0 movq %r13, %r12 vaesenclast 224(%r13), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) vmovdqa %xmm0, 16(%rsp) leaq 16(%rsp), %rsi movq %r14, %rdi movq %rbx, %rdx callq *%rbp testq %r15, %r15 je .LBB1_30 vmovaps (%rsp), %xmm0 vmovaps %xmm0, 432(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 16(%rsp) leaq 16(%rsp), %rdi leaq 432(%rsp), %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) vmovdqa 16(%rsp), %xmm0 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor 32(%rsp), %xmm0, %xmm0 movq %r12, %rdi vmovdqa 240(%r12), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 jmp .LBB1_38 .LBB1_15: movq %r12, %rdi vmovdqa 240(%r12), %xmm1 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor 32(%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm5 movq %rbx, %r8 jmp .LBB1_39 .LBB1_30: movq %r12, %rdi vmovdqa 240(%r12), %xmm0 vmovdqa (%rsp), %xmm1 vpshufb .LCPI1_2(%rip), %xmm1, %xmm1 vpxor 32(%rsp), %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 .LBB1_38: vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm5 movq 48(%rsp), %r8 .LBB1_39: movq 536(%rsp), %rax vmovdqa 240(%rdi), %xmm0 vmovq %r8, %xmm1 vmovq %r15, %xmm2 vpunpcklqdq %xmm1, %xmm2, %xmm1 vpsllq $3, %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vmovdqa 144(%rsp), %xmm2 vpxor (%rdi), %xmm2, %xmm2 vaesenc 16(%rdi), %xmm2, %xmm2 vaesenc 32(%rdi), %xmm2, %xmm2 vaesenc 48(%rdi), %xmm2, %xmm2 vaesenc 64(%rdi), %xmm2, %xmm2 vaesenc 80(%rdi), %xmm2, %xmm2 vaesenc 96(%rdi), %xmm2, %xmm2 vaesenc 112(%rdi), %xmm2, %xmm2 vaesenc 128(%rdi), %xmm2, %xmm2 vaesenc 144(%rdi), %xmm2, %xmm2 vaesenc 160(%rdi), %xmm2, %xmm2 vaesenc 176(%rdi), %xmm2, %xmm2 vaesenc 192(%rdi), %xmm2, %xmm2 vaesenc 208(%rdi), %xmm2, %xmm2 vaesenclast 224(%rdi), %xmm2, %xmm2 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpshufb .LCPI1_10(%rip), %xmm3, %xmm3 vpshufb .LCPI1_11(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqu %xmm0, (%rax) movl $1, %eax .LBB1_40: addq $456, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end1: .size haberdashery_aes256gcm_skylake_encrypt, .Lfunc_end1-haberdashery_aes256gcm_skylake_encrypt .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_1: .long 1 .long 0 .long 0 .long 0 .LCPI2_2: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_3: .zero 8 .quad -4467570830351532032 .LCPI2_4: .long 2 .long 0 .long 0 .long 0 .LCPI2_5: .long 3 .long 0 .long 0 .long 0 .LCPI2_6: .long 4 .long 0 .long 0 .long 0 .LCPI2_7: .long 5 .long 0 .long 0 .long 0 .LCPI2_8: .long 6 .long 0 .long 0 .long 0 .LCPI2_9: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI2_10: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI2_11: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_skylake_decrypt,"ax",@progbits .globl haberdashery_aes256gcm_skylake_decrypt .p2align 4, 0x90 .type haberdashery_aes256gcm_skylake_decrypt,@function haberdashery_aes256gcm_skylake_decrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $488, %rsp .cfi_def_cfa_offset 544 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 544(%rsp), %r15 xorl %eax, %eax cmpq 576(%rsp), %r15 jne .LBB2_38 cmpq $16, 560(%rsp) setne %r10b movabsq $2305843009213693950, %r11 cmpq %r11, %r8 seta %r11b movq %r15, %rbx shrq $5, %rbx cmpq $2147483647, %rbx setae %bl orb %r10b, %r11b orb %bl, %r11b cmpq $12, %rdx setne %dl orb %r11b, %dl jne .LBB2_38 movq 552(%rsp), %r13 vmovd (%rsi), %xmm0 vpinsrd $1, 4(%rsi), %xmm0, %xmm0 vpinsrd $2, 8(%rsi), %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm0 vmovdqa %xmm0, 144(%rsp) vpxor %xmm5, %xmm5, %xmm5 testq %r8, %r8 je .LBB2_3 cmpq $96, %r8 jb .LBB2_6 vmovdqu (%rcx), %xmm1 vmovdqu 16(%rcx), %xmm2 vmovdqu 32(%rcx), %xmm3 vmovdqu 48(%rcx), %xmm4 vmovdqu 64(%rcx), %xmm5 vmovdqu 80(%rcx), %xmm6 vmovdqa .LCPI2_2(%rip), %xmm0 vpshufb %xmm0, %xmm1, %xmm7 vpshufb %xmm0, %xmm2, %xmm10 vpshufb %xmm0, %xmm3, %xmm8 vpshufb %xmm0, %xmm4, %xmm9 vpshufb %xmm0, %xmm5, %xmm5 vpshufb %xmm0, %xmm6, %xmm6 vmovdqa 240(%rdi), %xmm1 vmovdqa 256(%rdi), %xmm2 vmovdqa 272(%rdi), %xmm3 vmovdqa 288(%rdi), %xmm4 vpclmulqdq $0, %xmm6, %xmm1, %xmm11 vpclmulqdq $1, %xmm6, %xmm1, %xmm12 vpclmulqdq $16, %xmm6, %xmm1, %xmm13 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm6, %xmm1, %xmm6 vpclmulqdq $0, %xmm5, %xmm2, %xmm13 vpxor %xmm11, %xmm13, %xmm11 vpclmulqdq $1, %xmm5, %xmm2, %xmm13 vpclmulqdq $16, %xmm5, %xmm2, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpclmulqdq $17, %xmm5, %xmm2, %xmm5 vpxor %xmm6, %xmm5, %xmm13 vpclmulqdq $0, %xmm9, %xmm3, %xmm5 vpclmulqdq $1, %xmm9, %xmm3, %xmm6 vpclmulqdq $16, %xmm9, %xmm3, %xmm14 vpxor %xmm6, %xmm14, %xmm6 vpclmulqdq $0, %xmm8, %xmm4, %xmm14 vpxor %xmm5, %xmm14, %xmm14 vmovdqa 304(%rdi), %xmm5 vpxor %xmm14, %xmm11, %xmm11 vpclmulqdq $1, %xmm8, %xmm4, %xmm14 vpxor %xmm6, %xmm14, %xmm14 vmovdqa 320(%rdi), %xmm6 vpclmulqdq $17, %xmm9, %xmm3, %xmm9 vpxor %xmm14, %xmm12, %xmm12 vpclmulqdq $16, %xmm8, %xmm4, %xmm14 vpclmulqdq $17, %xmm8, %xmm4, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpxor %xmm8, %xmm13, %xmm13 vpclmulqdq $0, %xmm10, %xmm5, %xmm8 vpclmulqdq $1, %xmm10, %xmm5, %xmm9 vpxor %xmm9, %xmm14, %xmm9 vpclmulqdq $16, %xmm10, %xmm5, %xmm14 vpxor %xmm14, %xmm9, %xmm9 vpclmulqdq $0, %xmm7, %xmm6, %xmm14 vpxor %xmm14, %xmm8, %xmm8 vpxor %xmm8, %xmm11, %xmm8 vpclmulqdq $1, %xmm7, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpxor %xmm9, %xmm12, %xmm9 vpclmulqdq $16, %xmm7, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $17, %xmm10, %xmm5, %xmm10 vpclmulqdq $17, %xmm7, %xmm6, %xmm7 vpxor %xmm7, %xmm10, %xmm7 vpxor %xmm7, %xmm13, %xmm10 addq $96, %rcx leaq -96(%r8), %rsi cmpq $96, %rsi jb .LBB2_15 .p2align 4, 0x90 .LBB2_14: vmovdqu (%rcx), %xmm11 vmovdqu 32(%rcx), %xmm12 vmovdqu 48(%rcx), %xmm13 vmovdqu 64(%rcx), %xmm14 vmovdqu 80(%rcx), %xmm15 vpslldq $8, %xmm9, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpsrldq $8, %xmm9, %xmm8 vpxor %xmm8, %xmm10, %xmm8 vpbroadcastq .LCPI2_11(%rip), %xmm10 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpshufb %xmm0, %xmm11, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor %xmm7, %xmm9, %xmm10 vpshufb %xmm0, %xmm12, %xmm8 vpshufb %xmm0, %xmm13, %xmm7 vpshufb %xmm0, %xmm14, %xmm9 vpshufb %xmm0, %xmm15, %xmm11 vpclmulqdq $0, %xmm11, %xmm1, %xmm12 vpclmulqdq $1, %xmm11, %xmm1, %xmm13 vpclmulqdq $16, %xmm11, %xmm1, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $17, %xmm11, %xmm1, %xmm11 vpclmulqdq $0, %xmm9, %xmm2, %xmm14 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $1, %xmm9, %xmm2, %xmm14 vpclmulqdq $16, %xmm9, %xmm2, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpclmulqdq $17, %xmm9, %xmm2, %xmm9 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $0, %xmm7, %xmm3, %xmm11 vpclmulqdq $1, %xmm7, %xmm3, %xmm14 vpclmulqdq $16, %xmm7, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $0, %xmm8, %xmm4, %xmm15 vpxor %xmm15, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $1, %xmm8, %xmm4, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $17, %xmm7, %xmm3, %xmm7 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm8, %xmm4, %xmm13 vpxor %xmm7, %xmm13, %xmm7 vmovdqu 16(%rcx), %xmm13 vpshufb %xmm0, %xmm13, %xmm13 vpclmulqdq $16, %xmm8, %xmm4, %xmm8 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm13, %xmm5, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $1, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $16, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpxor %xmm8, %xmm12, %xmm11 vpclmulqdq $17, %xmm13, %xmm5, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm10, %xmm6, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $1, %xmm10, %xmm6, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $16, %xmm10, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $17, %xmm10, %xmm6, %xmm10 vpxor %xmm7, %xmm10, %xmm10 addq $96, %rcx addq $-96, %rsi cmpq $95, %rsi ja .LBB2_14 .LBB2_15: vpslldq $8, %xmm9, %xmm0 vpxor %xmm0, %xmm8, %xmm0 vpsrldq $8, %xmm9, %xmm1 vpxor %xmm1, %xmm10, %xmm1 vpbroadcastq .LCPI2_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm5 cmpq $16, %rsi jae .LBB2_16 jmp .LBB2_8 .LBB2_6: movq %r8, %rsi cmpq $16, %rsi jb .LBB2_8 .LBB2_16: vmovdqa 240(%rdi), %xmm0 leaq -16(%rsi), %rdx testb $16, %dl je .LBB2_17 cmpq $16, %rdx jae .LBB2_19 .LBB2_9: testq %rdx, %rdx je .LBB2_3 .LBB2_10: vmovdqa %xmm5, 16(%rsp) movq %r9, %r14 movq %r8, %rbx movq %rdi, %r12 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) leaq 32(%rsp), %rdi movq %rcx, %rsi callq *memcpy@GOTPCREL(%rip) vmovdqa 32(%rsp), %xmm0 testq %r15, %r15 je .LBB2_11 movabsq $-68719476704, %rax leaq (%r15,%rax), %rcx incq %rax cmpq %rax, %rcx movl $0, %eax vmovdqa 16(%rsp), %xmm2 jb .LBB2_38 movq %r12, %rdi movq %rbx, %r8 movq %r14, %r9 vmovdqa 240(%r12), %xmm1 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI2_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm5 jmp .LBB2_23 .LBB2_17: vmovdqu (%rcx), %xmm1 addq $16, %rcx vpshufb .LCPI2_2(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpbroadcastq .LCPI2_11(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm3, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm5 movq %rdx, %rsi cmpq $16, %rdx jb .LBB2_9 .LBB2_19: vmovdqa .LCPI2_2(%rip), %xmm1 vpbroadcastq .LCPI2_11(%rip), %xmm2 .p2align 4, 0x90 .LBB2_20: vmovdqu (%rcx), %xmm3 vmovdqu 16(%rcx), %xmm4 vpshufb %xmm1, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpclmulqdq $1, %xmm3, %xmm0, %xmm6 vpclmulqdq $16, %xmm3, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $16, %xmm2, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 addq $32, %rcx addq $-32, %rsi vpshufb %xmm1, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm6, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm4 vpclmulqdq $1, %xmm3, %xmm0, %xmm5 vpclmulqdq $16, %xmm3, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm5 cmpq $15, %rsi ja .LBB2_20 .LBB2_8: movq %rsi, %rdx testq %rdx, %rdx jne .LBB2_10 .LBB2_3: testq %r15, %r15 je .LBB2_12 movabsq $-68719476704, %rcx leaq (%r15,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB2_38 .LBB2_23: movq 568(%rsp), %rax vmovdqa 144(%rsp), %xmm0 vpshufb .LCPI2_0(%rip), %xmm0, %xmm0 vpaddd .LCPI2_1(%rip), %xmm0, %xmm7 cmpq $96, %r15 jb .LBB2_24 vmovaps (%rdi), %xmm0 vmovaps %xmm0, 160(%rsp) vmovaps 16(%rdi), %xmm0 vmovaps %xmm0, 64(%rsp) vmovaps 32(%rdi), %xmm0 vmovaps %xmm0, 48(%rsp) vmovaps 48(%rdi), %xmm0 vmovaps %xmm0, 448(%rsp) vmovaps 64(%rdi), %xmm0 vmovaps %xmm0, 432(%rsp) vmovaps 80(%rdi), %xmm0 vmovaps %xmm0, 416(%rsp) vmovaps 96(%rdi), %xmm0 vmovaps %xmm0, 400(%rsp) vmovaps 112(%rdi), %xmm0 vmovaps %xmm0, 384(%rsp) vmovaps 128(%rdi), %xmm0 vmovaps %xmm0, 368(%rsp) vmovaps 144(%rdi), %xmm0 vmovaps %xmm0, 352(%rsp) vmovaps 160(%rdi), %xmm0 vmovaps %xmm0, 336(%rsp) vmovaps 176(%rdi), %xmm0 vmovaps %xmm0, 320(%rsp) vmovaps 192(%rdi), %xmm0 vmovaps %xmm0, 304(%rsp) vmovaps 208(%rdi), %xmm0 vmovaps %xmm0, 288(%rsp) vmovaps 224(%rdi), %xmm0 vmovaps %xmm0, 272(%rsp) vmovaps 240(%rdi), %xmm0 vmovaps %xmm0, 256(%rsp) movq %r15, %rbx vmovaps 256(%rdi), %xmm0 vmovaps %xmm0, 240(%rsp) vmovaps 272(%rdi), %xmm0 vmovaps %xmm0, 224(%rsp) vmovaps 288(%rdi), %xmm0 vmovaps %xmm0, 208(%rsp) vmovaps 304(%rdi), %xmm0 vmovaps %xmm0, 192(%rsp) vmovdqa 320(%rdi), %xmm0 vmovdqa %xmm0, 176(%rsp) .p2align 4, 0x90 .LBB2_28: vmovdqa %xmm7, (%rsp) vmovdqu (%r9), %xmm9 vmovdqa %xmm9, 112(%rsp) vmovups 32(%r9), %xmm0 vmovaps %xmm0, 16(%rsp) vmovdqu 48(%r9), %xmm13 vmovdqa %xmm13, 80(%rsp) vmovdqu 64(%r9), %xmm10 vmovdqu 80(%r9), %xmm11 vmovdqa %xmm11, 128(%rsp) vmovdqa .LCPI2_2(%rip), %xmm6 vpshufb %xmm6, %xmm7, %xmm0 vpaddd .LCPI2_1(%rip), %xmm7, %xmm1 vpshufb %xmm6, %xmm1, %xmm1 vpaddd .LCPI2_4(%rip), %xmm7, %xmm2 vpshufb %xmm6, %xmm2, %xmm2 vpaddd .LCPI2_5(%rip), %xmm7, %xmm3 vpshufb %xmm6, %xmm3, %xmm3 vpaddd .LCPI2_6(%rip), %xmm7, %xmm4 vpshufb %xmm6, %xmm4, %xmm4 vmovdqa %xmm5, %xmm8 vpaddd .LCPI2_7(%rip), %xmm7, %xmm5 vpshufb %xmm6, %xmm5, %xmm5 vpshufb %xmm6, %xmm9, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vmovdqa %xmm7, 96(%rsp) vpshufb %xmm6, %xmm11, %xmm9 vmovdqa 160(%rsp), %xmm7 vpxor %xmm0, %xmm7, %xmm15 vpxor %xmm1, %xmm7, %xmm1 vpxor %xmm2, %xmm7, %xmm2 vpxor %xmm3, %xmm7, %xmm3 vpxor %xmm4, %xmm7, %xmm4 vpxor %xmm5, %xmm7, %xmm14 vmovaps 64(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm14, %xmm14 #NO_APP vpxor %xmm7, %xmm7, %xmm7 vpxor %xmm8, %xmm8, %xmm8 vxorps %xmm0, %xmm0, %xmm0 vmovaps 48(%rsp), %xmm11 vmovaps 256(%rsp), %xmm12 #APP vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm14, %xmm14 vpclmulqdq $16, %xmm12, %xmm9, %xmm5 vpxor %xmm5, %xmm8, %xmm8 vpclmulqdq $0, %xmm12, %xmm9, %xmm5 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $17, %xmm12, %xmm9, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpclmulqdq $1, %xmm12, %xmm9, %xmm5 vpxor %xmm5, %xmm8, %xmm8 #NO_APP vpshufb %xmm6, %xmm10, %xmm5 vmovaps 448(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm14, %xmm14 #NO_APP vmovaps 432(%rsp), %xmm11 vmovaps 240(%rsp), %xmm12 #APP vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm14, %xmm14 vpclmulqdq $16, %xmm12, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpclmulqdq $0, %xmm12, %xmm5, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $17, %xmm12, %xmm5, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $1, %xmm12, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 #NO_APP vpshufb %xmm6, %xmm13, %xmm5 vmovaps 416(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm14, %xmm14 #NO_APP vmovaps 400(%rsp), %xmm11 vmovaps 224(%rsp), %xmm12 #APP vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm14, %xmm14 vpclmulqdq $16, %xmm12, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpclmulqdq $0, %xmm12, %xmm5, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $17, %xmm12, %xmm5, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $1, %xmm12, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 #NO_APP vmovdqa 16(%rsp), %xmm5 vpshufb %xmm6, %xmm5, %xmm5 vmovaps 384(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm14, %xmm14 #NO_APP vmovaps 368(%rsp), %xmm11 vmovaps 208(%rsp), %xmm12 #APP vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm14, %xmm14 vpclmulqdq $16, %xmm12, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpclmulqdq $0, %xmm12, %xmm5, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $17, %xmm12, %xmm5, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $1, %xmm12, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 #NO_APP vmovdqu 16(%r9), %xmm5 vmovaps 352(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm14, %xmm14 #NO_APP vpshufb %xmm6, %xmm5, %xmm9 vmovaps 336(%rsp), %xmm12 vmovdqa 192(%rsp), %xmm13 #APP vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm14, %xmm14 vpclmulqdq $16, %xmm13, %xmm9, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $0, %xmm13, %xmm9, %xmm11 vpxor %xmm7, %xmm11, %xmm7 vpclmulqdq $17, %xmm13, %xmm9, %xmm11 vpxor %xmm0, %xmm11, %xmm0 vpclmulqdq $1, %xmm13, %xmm9, %xmm11 vpxor %xmm11, %xmm8, %xmm8 #NO_APP vmovaps 320(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm14, %xmm14 #NO_APP vmovdqa 304(%rsp), %xmm11 vmovdqa 176(%rsp), %xmm12 vmovdqa 96(%rsp), %xmm6 #APP vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm14, %xmm14 vpclmulqdq $16, %xmm12, %xmm6, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpclmulqdq $0, %xmm12, %xmm6, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $17, %xmm12, %xmm6, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $1, %xmm12, %xmm6, %xmm9 vpxor %xmm9, %xmm8, %xmm8 #NO_APP vpxor %xmm11, %xmm11, %xmm11 vpunpcklqdq %xmm8, %xmm11, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpunpckhqdq %xmm11, %xmm8, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vpbroadcastq .LCPI2_11(%rip), %xmm9 vpclmulqdq $16, %xmm9, %xmm7, %xmm8 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpshufd $78, %xmm7, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vmovaps 288(%rsp), %xmm8 #APP vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm14, %xmm14 #NO_APP vmovaps 272(%rsp), %xmm8 #APP vaesenclast %xmm8, %xmm15, %xmm15 vaesenclast %xmm8, %xmm1, %xmm1 vaesenclast %xmm8, %xmm2, %xmm2 vaesenclast %xmm8, %xmm3, %xmm3 vaesenclast %xmm8, %xmm4, %xmm4 vaesenclast %xmm8, %xmm14, %xmm14 #NO_APP vpxor 112(%rsp), %xmm15, %xmm8 vpxor %xmm5, %xmm1, %xmm1 vpxor 16(%rsp), %xmm2, %xmm2 vpxor 80(%rsp), %xmm3, %xmm3 vpxor %xmm4, %xmm10, %xmm4 vmovdqu %xmm8, (%rax) vmovdqu %xmm1, 16(%rax) vmovdqu %xmm2, 32(%rax) vmovdqu %xmm3, 48(%rax) vpxor 128(%rsp), %xmm14, %xmm1 vmovdqu %xmm4, 64(%rax) vmovdqu %xmm1, 80(%rax) vpclmulqdq $16, %xmm9, %xmm7, %xmm1 vmovdqa (%rsp), %xmm7 vpxor %xmm1, %xmm0, %xmm5 addq $96, %r9 addq $96, %rax addq $-96, %rbx vpaddd .LCPI2_8(%rip), %xmm7, %xmm7 cmpq $95, %rbx ja .LBB2_28 cmpq $16, %rbx jb .LBB2_26 .LBB2_29: vmovdqa 240(%rdi), %xmm0 vmovaps (%rdi), %xmm1 vmovaps %xmm1, 16(%rsp) vmovaps 16(%rdi), %xmm1 vmovaps %xmm1, (%rsp) vmovaps 32(%rdi), %xmm1 vmovaps %xmm1, 128(%rsp) vmovaps 48(%rdi), %xmm1 vmovaps %xmm1, 112(%rsp) vmovaps 64(%rdi), %xmm1 vmovaps %xmm1, 96(%rsp) vmovaps 80(%rdi), %xmm1 vmovaps %xmm1, 80(%rsp) vmovaps 96(%rdi), %xmm1 vmovaps %xmm1, 64(%rsp) vmovaps 112(%rdi), %xmm1 vmovaps %xmm1, 48(%rsp) vmovdqa 128(%rdi), %xmm9 vmovdqa 144(%rdi), %xmm10 vmovdqa 160(%rdi), %xmm11 vmovdqa 176(%rdi), %xmm12 vmovdqa 192(%rdi), %xmm13 vmovdqa 208(%rdi), %xmm14 movq %rdi, %r13 vmovdqa 224(%rdi), %xmm15 vmovdqa .LCPI2_2(%rip), %xmm1 vpbroadcastq .LCPI2_11(%rip), %xmm2 .p2align 4, 0x90 .LBB2_30: vmovdqu (%r9), %xmm3 vpshufb %xmm1, %xmm3, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $0, %xmm4, %xmm0, %xmm5 vpclmulqdq $1, %xmm4, %xmm0, %xmm6 vmovdqa %xmm7, %xmm8 vpclmulqdq $16, %xmm4, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $17, %xmm4, %xmm0, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $16, %xmm2, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpshufd $78, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpshufb %xmm1, %xmm8, %xmm6 vpxor 16(%rsp), %xmm6, %xmm6 vaesenc (%rsp), %xmm6, %xmm6 vaesenc 128(%rsp), %xmm6, %xmm6 vaesenc 112(%rsp), %xmm6, %xmm6 vaesenc 96(%rsp), %xmm6, %xmm6 vaesenc 80(%rsp), %xmm6, %xmm6 vaesenc 64(%rsp), %xmm6, %xmm6 vaesenc 48(%rsp), %xmm6, %xmm6 vaesenc %xmm9, %xmm6, %xmm6 vaesenc %xmm10, %xmm6, %xmm6 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm12, %xmm6, %xmm6 vaesenc %xmm13, %xmm6, %xmm6 vaesenc %xmm14, %xmm6, %xmm6 vaesenclast %xmm15, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm3 vmovdqu %xmm3, (%rax) vpclmulqdq $16, %xmm2, %xmm5, %xmm3 vpxor %xmm4, %xmm3, %xmm5 leaq 16(%rax), %r14 addq $-16, %rbx addq $16, %r9 vpaddd .LCPI2_1(%rip), %xmm8, %xmm7 movq %r14, %rax cmpq $15, %rbx ja .LBB2_30 jmp .LBB2_31 .LBB2_24: movq %r15, %rbx cmpq $16, %rbx jae .LBB2_29 .LBB2_26: movq %rdi, %r13 movq %rax, %r14 .LBB2_31: vmovdqa %xmm5, 16(%rsp) movq %r8, %rbp vpxor %xmm1, %xmm1, %xmm1 vpxor %xmm2, %xmm2, %xmm2 testq %rbx, %rbx je .LBB2_33 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) leaq 32(%rsp), %rdi movq memcpy@GOTPCREL(%rip), %r12 movq %r9, %rsi movq %rbx, %rdx vmovdqa %xmm7, (%rsp) callq *%r12 vmovdqa (%rsp), %xmm0 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor (%r13), %xmm0, %xmm0 vaesenc 16(%r13), %xmm0, %xmm0 vaesenc 32(%r13), %xmm0, %xmm0 vaesenc 48(%r13), %xmm0, %xmm0 vaesenc 64(%r13), %xmm0, %xmm0 vaesenc 80(%r13), %xmm0, %xmm0 vaesenc 96(%r13), %xmm0, %xmm0 vaesenc 112(%r13), %xmm0, %xmm0 vaesenc 128(%r13), %xmm0, %xmm0 vaesenc 144(%r13), %xmm0, %xmm0 vaesenc 160(%r13), %xmm0, %xmm0 vaesenc 176(%r13), %xmm0, %xmm0 vaesenc 192(%r13), %xmm0, %xmm0 vaesenc 208(%r13), %xmm0, %xmm0 vmovdqa 32(%rsp), %xmm1 vmovdqa %xmm1, (%rsp) vaesenclast 224(%r13), %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) leaq 32(%rsp), %rsi movq %r14, %rdi movq %rbx, %rdx callq *%r12 vmovdqa (%rsp), %xmm2 vpxor %xmm1, %xmm1, %xmm1 .LBB2_33: movq 552(%rsp), %rax vmovdqu (%rax), %xmm0 vmovdqa %xmm0, (%rsp) vmovdqa %xmm2, 464(%rsp) vmovdqa %xmm1, 32(%rsp) leaq 32(%rsp), %rdi leaq 464(%rsp), %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) testq %rbx, %rbx je .LBB2_34 vmovdqa 32(%rsp), %xmm0 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 movq %r13, %rdi vmovdqa 240(%r13), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI2_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm5 movq %rbp, %r8 jmp .LBB2_36 .LBB2_11: movq %r12, %rdi vmovdqa 240(%r12), %xmm1 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI2_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm5 movq %rbx, %r8 .LBB2_12: vmovdqu (%r13), %xmm6 jmp .LBB2_37 .LBB2_34: movq %r13, %rdi movq %rbp, %r8 vmovdqa 16(%rsp), %xmm5 .LBB2_36: vmovdqa (%rsp), %xmm6 .LBB2_37: vmovdqa 240(%rdi), %xmm0 vmovq %r8, %xmm1 vmovq %r15, %xmm2 vpunpcklqdq %xmm1, %xmm2, %xmm1 vpsllq $3, %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI2_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vmovdqa 144(%rsp), %xmm2 vpxor (%rdi), %xmm2, %xmm2 vaesenc 16(%rdi), %xmm2, %xmm2 vaesenc 32(%rdi), %xmm2, %xmm2 vaesenc 48(%rdi), %xmm2, %xmm2 vaesenc 64(%rdi), %xmm2, %xmm2 vaesenc 80(%rdi), %xmm2, %xmm2 vaesenc 96(%rdi), %xmm2, %xmm2 vaesenc 112(%rdi), %xmm2, %xmm2 vaesenc 128(%rdi), %xmm2, %xmm2 vaesenc 144(%rdi), %xmm2, %xmm2 vaesenc 160(%rdi), %xmm2, %xmm2 vaesenc 176(%rdi), %xmm2, %xmm2 vaesenc 192(%rdi), %xmm2, %xmm2 vaesenc 208(%rdi), %xmm2, %xmm2 vaesenclast 224(%rdi), %xmm2, %xmm2 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpshufb .LCPI2_9(%rip), %xmm3, %xmm3 vpshufb .LCPI2_10(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpxor %xmm1, %xmm6, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm0 xorl %eax, %eax vptest %xmm0, %xmm0 sete %al .LBB2_38: addq $488, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end2: .size haberdashery_aes256gcm_skylake_decrypt, .Lfunc_end2-haberdashery_aes256gcm_skylake_decrypt .cfi_endproc .section .text.haberdashery_aes256gcm_skylake_is_supported,"ax",@progbits .globl haberdashery_aes256gcm_skylake_is_supported .p2align 4, 0x90 .type haberdashery_aes256gcm_skylake_is_supported,@function haberdashery_aes256gcm_skylake_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $9175337, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end3: .size haberdashery_aes256gcm_skylake_is_supported, .Lfunc_end3-haberdashery_aes256gcm_skylake_is_supported .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
74,782
asm/aes256gcmdndkv2_skylakex.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_1: .quad 4294967297 .LCPI0_2: .quad 8589934594 .LCPI0_3: .quad 17179869188 .LCPI0_4: .quad 34359738376 .LCPI0_5: .quad 68719476752 .LCPI0_6: .quad 137438953504 .LCPI0_7: .quad 274877907008 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI0_8: .byte 13 .byte 14 .byte 15 .byte 12 .section .text.haberdashery_aes256gcmdndkv2_skylakex_init,"ax",@progbits .globl haberdashery_aes256gcmdndkv2_skylakex_init .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2_skylakex_init,@function haberdashery_aes256gcmdndkv2_skylakex_init: .cfi_startproc cmpq $32, %rdx jne .LBB0_2 vmovupd (%rsi), %xmm0 vmovdqu 16(%rsi), %xmm1 vpslldq $4, %xmm0, %xmm2 vpslldq $8, %xmm0, %xmm3 vpslldq $12, %xmm0, %xmm4 vpternlogq $150, %xmm3, %xmm2, %xmm4 vpbroadcastd .LCPI0_8(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm2 vpbroadcastq .LCPI0_1(%rip), %xmm5 vaesenclast %xmm5, %xmm2, %xmm2 vpternlogq $150, %xmm4, %xmm0, %xmm2 vpslldq $4, %xmm1, %xmm4 vpslldq $8, %xmm1, %xmm5 vpslldq $12, %xmm1, %xmm7 vpternlogq $150, %xmm5, %xmm4, %xmm7 vpshufd $255, %xmm2, %xmm4 vpxor %xmm6, %xmm6, %xmm6 vaesenclast %xmm6, %xmm4, %xmm4 vpternlogq $150, %xmm7, %xmm1, %xmm4 vpslldq $4, %xmm2, %xmm5 vpslldq $8, %xmm2, %xmm7 vpslldq $12, %xmm2, %xmm8 vpternlogq $150, %xmm7, %xmm5, %xmm8 vpshufb %xmm3, %xmm4, %xmm5 vpbroadcastq .LCPI0_2(%rip), %xmm7 vaesenclast %xmm7, %xmm5, %xmm5 vpternlogq $150, %xmm8, %xmm2, %xmm5 vpslldq $4, %xmm4, %xmm7 vpslldq $8, %xmm4, %xmm8 vpslldq $12, %xmm4, %xmm9 vpternlogq $150, %xmm8, %xmm7, %xmm9 vpshufd $255, %xmm5, %xmm7 vaesenclast %xmm6, %xmm7, %xmm7 vpternlogq $150, %xmm9, %xmm4, %xmm7 vpslldq $4, %xmm5, %xmm8 vpslldq $8, %xmm5, %xmm9 vpslldq $12, %xmm5, %xmm10 vpternlogq $150, %xmm9, %xmm8, %xmm10 vpshufb %xmm3, %xmm7, %xmm8 vpbroadcastq .LCPI0_3(%rip), %xmm9 vaesenclast %xmm9, %xmm8, %xmm8 vpternlogq $150, %xmm10, %xmm5, %xmm8 vpslldq $4, %xmm7, %xmm9 vpslldq $8, %xmm7, %xmm10 vpslldq $12, %xmm7, %xmm11 vpternlogq $150, %xmm10, %xmm9, %xmm11 vpshufd $255, %xmm8, %xmm9 vaesenclast %xmm6, %xmm9, %xmm9 vpternlogq $150, %xmm11, %xmm7, %xmm9 vpslldq $4, %xmm8, %xmm10 vpslldq $8, %xmm8, %xmm11 vpslldq $12, %xmm8, %xmm12 vpternlogq $150, %xmm11, %xmm10, %xmm12 vpshufb %xmm3, %xmm9, %xmm10 vpbroadcastq .LCPI0_4(%rip), %xmm11 vaesenclast %xmm11, %xmm10, %xmm10 vpternlogq $150, %xmm12, %xmm8, %xmm10 vpslldq $4, %xmm9, %xmm11 vpslldq $8, %xmm9, %xmm12 vpslldq $12, %xmm9, %xmm13 vpternlogq $150, %xmm12, %xmm11, %xmm13 vpshufd $255, %xmm10, %xmm11 vaesenclast %xmm6, %xmm11, %xmm11 vpternlogq $150, %xmm13, %xmm9, %xmm11 vpslldq $4, %xmm10, %xmm12 vpslldq $8, %xmm10, %xmm13 vpslldq $12, %xmm10, %xmm14 vpternlogq $150, %xmm13, %xmm12, %xmm14 vpshufb %xmm3, %xmm11, %xmm12 vpbroadcastq .LCPI0_5(%rip), %xmm13 vaesenclast %xmm13, %xmm12, %xmm12 vpternlogq $150, %xmm14, %xmm10, %xmm12 vpslldq $4, %xmm11, %xmm13 vpslldq $8, %xmm11, %xmm14 vpslldq $12, %xmm11, %xmm15 vpternlogq $150, %xmm14, %xmm13, %xmm15 vpshufd $255, %xmm12, %xmm13 vaesenclast %xmm6, %xmm13, %xmm13 vpternlogq $150, %xmm15, %xmm11, %xmm13 vpslldq $4, %xmm12, %xmm14 vpslldq $8, %xmm12, %xmm15 vpslldq $12, %xmm12, %xmm16 vpternlogq $150, %xmm15, %xmm14, %xmm16 vpshufb %xmm3, %xmm13, %xmm14 vpbroadcastq .LCPI0_6(%rip), %xmm15 vaesenclast %xmm15, %xmm14, %xmm14 vpternlogq $150, %xmm16, %xmm12, %xmm14 vpslldq $4, %xmm13, %xmm15 vpslldq $8, %xmm13, %xmm16 vpslldq $12, %xmm13, %xmm17 vpternlogq $150, %xmm16, %xmm15, %xmm17 vpshufd $255, %xmm14, %xmm15 vaesenclast %xmm6, %xmm15, %xmm6 vpternlogq $150, %xmm17, %xmm13, %xmm6 vpslldq $4, %xmm14, %xmm15 vpslldq $8, %xmm14, %xmm16 vpslldq $12, %xmm14, %xmm17 vpternlogq $150, %xmm16, %xmm15, %xmm17 vpshufb %xmm3, %xmm6, %xmm3 vpbroadcastq .LCPI0_7(%rip), %xmm15 vaesenclast %xmm15, %xmm3, %xmm3 vpternlogq $150, %xmm17, %xmm14, %xmm3 vmovdqa %xmm0, (%rdi) vmovdqa %xmm1, 16(%rdi) vmovdqa %xmm2, 32(%rdi) vmovdqa %xmm4, 48(%rdi) vmovdqa %xmm5, 64(%rdi) vmovdqa %xmm7, 80(%rdi) vmovdqa %xmm8, 96(%rdi) vmovdqa %xmm9, 112(%rdi) vmovdqa %xmm10, 128(%rdi) vmovdqa %xmm11, 144(%rdi) vmovdqa %xmm12, 160(%rdi) vmovdqa %xmm13, 176(%rdi) vmovdqa %xmm14, 192(%rdi) vmovdqa %xmm6, 208(%rdi) vmovdqa %xmm3, 224(%rdi) .LBB0_2: xorl %eax, %eax cmpq $32, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes256gcmdndkv2_skylakex_init, .Lfunc_end0-haberdashery_aes256gcmdndkv2_skylakex_init .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI1_0: .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 0 .LCPI1_1: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 96 .LCPI1_2: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 97 .LCPI1_3: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 98 .LCPI1_4: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI1_13: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_15: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_16: .long 1 .long 0 .long 0 .long 0 .LCPI1_17: .long 2 .long 0 .long 0 .long 0 .LCPI1_18: .long 3 .long 0 .long 0 .long 0 .LCPI1_19: .long 4 .long 0 .long 0 .long 0 .LCPI1_20: .long 5 .long 0 .long 0 .long 0 .LCPI1_21: .long 6 .long 0 .long 0 .long 0 .LCPI1_22: .long 7 .long 0 .long 0 .long 0 .LCPI1_23: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_24: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI1_5: .quad 4294967297 .LCPI1_12: .quad 274877907008 .LCPI1_14: .quad -4467570830351532032 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI1_6: .long 0x00000002 .LCPI1_7: .long 0x0c0f0e0d .LCPI1_8: .long 0x00000004 .LCPI1_9: .long 0x00000008 .LCPI1_10: .long 0x00000010 .LCPI1_11: .long 0x00000020 .section .rodata,"a",@progbits .LCPI1_25: .byte 1 .byte 0 .section .text.haberdashery_aes256gcmdndkv2_skylakex_encrypt,"ax",@progbits .globl haberdashery_aes256gcmdndkv2_skylakex_encrypt .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2_skylakex_encrypt,@function haberdashery_aes256gcmdndkv2_skylakex_encrypt: .cfi_startproc pushq %rbx .cfi_def_cfa_offset 16 subq $176, %rsp .cfi_def_cfa_offset 192 .cfi_offset %rbx, -16 movq 192(%rsp), %r10 xorl %eax, %eax cmpq 208(%rsp), %r10 jne .LBB1_45 movq %r10, %r11 shrq $5, %r11 cmpq $2147483646, %r11 ja .LBB1_45 movabsq $2305843009213693950, %r11 cmpq %r11, %r8 ja .LBB1_45 cmpq $24, %rdx jne .LBB1_45 cmpq $16, 224(%rsp) jne .LBB1_45 vmovdqu64 (%rsi), %xmm17 vmovdqa (%rdi), %xmm14 vmovdqa 16(%rdi), %xmm12 vmovdqa 32(%rdi), %xmm0 vmovdqa 48(%rdi), %xmm1 vpternlogq $120, .LCPI1_0(%rip), %xmm17, %xmm14 vpxor .LCPI1_1(%rip), %xmm14, %xmm2 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm1, %xmm2, %xmm3 vmovdqa 64(%rdi), %xmm2 vaesenc %xmm2, %xmm3, %xmm4 vmovdqa 80(%rdi), %xmm3 vaesenc %xmm3, %xmm4, %xmm5 vmovdqa 96(%rdi), %xmm4 vaesenc %xmm4, %xmm5, %xmm6 vmovdqa 112(%rdi), %xmm5 vaesenc %xmm5, %xmm6, %xmm7 vmovdqa 128(%rdi), %xmm6 vaesenc %xmm6, %xmm7, %xmm8 vmovdqa 144(%rdi), %xmm7 vaesenc %xmm7, %xmm8, %xmm9 vmovdqa 160(%rdi), %xmm8 vaesenc %xmm8, %xmm9, %xmm11 vmovdqa 176(%rdi), %xmm9 vaesenc %xmm9, %xmm11, %xmm13 vmovdqa 192(%rdi), %xmm11 vaesenc %xmm11, %xmm13, %xmm15 vmovdqa 208(%rdi), %xmm13 vaesenc %xmm13, %xmm15, %xmm15 vpxor .LCPI1_2(%rip), %xmm14, %xmm10 vaesenc %xmm12, %xmm10, %xmm10 vpxor .LCPI1_3(%rip), %xmm14, %xmm14 vaesenc %xmm12, %xmm14, %xmm12 vmovdqa 224(%rdi), %xmm14 vaesenclast %xmm14, %xmm15, %xmm15 vaesenc %xmm0, %xmm10, %xmm10 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm5, %xmm10, %xmm10 vaesenc %xmm6, %xmm10, %xmm10 vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm8, %xmm10, %xmm10 vaesenc %xmm9, %xmm10, %xmm10 vaesenc %xmm11, %xmm10, %xmm10 vaesenc %xmm13, %xmm10, %xmm10 vaesenclast %xmm14, %xmm10, %xmm10 vaesenc %xmm0, %xmm12, %xmm0 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm13, %xmm0, %xmm0 vaesenclast %xmm14, %xmm0, %xmm0 vpxor %xmm15, %xmm10, %xmm4 vpxor %xmm0, %xmm15, %xmm10 vpslldq $4, %xmm4, %xmm0 vpslldq $8, %xmm4, %xmm2 vpslldq $12, %xmm4, %xmm3 vpbroadcastd .LCPI1_7(%rip), %xmm1 vpternlogq $150, %xmm2, %xmm0, %xmm3 vpshufb %xmm1, %xmm10, %xmm0 vpbroadcastq .LCPI1_5(%rip), %xmm2 vaesenclast %xmm2, %xmm0, %xmm8 vpternlogq $150, %xmm3, %xmm4, %xmm8 vmovdqa64 %xmm4, %xmm28 vaesenc %xmm10, %xmm4, %xmm0 vpslldq $4, %xmm10, %xmm2 vpslldq $8, %xmm10, %xmm3 vpslldq $12, %xmm10, %xmm4 vpternlogq $150, %xmm3, %xmm2, %xmm4 vpshufd $255, %xmm8, %xmm2 vpxor %xmm5, %xmm5, %xmm5 vaesenclast %xmm5, %xmm2, %xmm9 vbroadcastss .LCPI1_6(%rip), %xmm3 vbroadcastss .LCPI1_7(%rip), %xmm2 vpternlogq $150, %xmm4, %xmm10, %xmm9 vmovdqa64 %xmm8, %xmm27 #APP vaesenc %xmm8, %xmm0, %xmm0 vpslldq $4, %xmm8, %xmm4 vpslldq $8, %xmm8, %xmm6 vpslldq $12, %xmm8, %xmm7 vpternlogq $150, %xmm4, %xmm6, %xmm7 vpshufb %xmm2, %xmm9, %xmm11 vaesenclast %xmm3, %xmm11, %xmm11 vpternlogq $150, %xmm8, %xmm7, %xmm11 #NO_APP vmovdqa64 %xmm9, %xmm29 #APP vaesenc %xmm9, %xmm0, %xmm0 vpslldq $4, %xmm9, %xmm3 vpslldq $8, %xmm9, %xmm4 vpslldq $12, %xmm9, %xmm6 vpternlogq $150, %xmm3, %xmm4, %xmm6 vpshufd $255, %xmm11, %xmm12 vaesenclast %xmm5, %xmm12, %xmm12 vpternlogq $150, %xmm9, %xmm6, %xmm12 #NO_APP vbroadcastss .LCPI1_8(%rip), %xmm3 vmovdqa64 %xmm11, %xmm25 #APP vaesenc %xmm11, %xmm0, %xmm0 vpslldq $4, %xmm11, %xmm4 vpslldq $8, %xmm11, %xmm6 vpslldq $12, %xmm11, %xmm7 vpternlogq $150, %xmm4, %xmm6, %xmm7 vpshufb %xmm2, %xmm12, %xmm8 vaesenclast %xmm3, %xmm8, %xmm8 vpternlogq $150, %xmm11, %xmm7, %xmm8 #NO_APP vmovdqa64 %xmm12, %xmm30 #APP vaesenc %xmm12, %xmm0, %xmm0 vpslldq $4, %xmm12, %xmm3 vpslldq $8, %xmm12, %xmm4 vpslldq $12, %xmm12, %xmm6 vpternlogq $150, %xmm3, %xmm4, %xmm6 vpshufd $255, %xmm8, %xmm15 vaesenclast %xmm5, %xmm15, %xmm15 vpternlogq $150, %xmm12, %xmm6, %xmm15 #NO_APP vbroadcastss .LCPI1_9(%rip), %xmm3 vmovaps %xmm8, -64(%rsp) #APP vaesenc %xmm8, %xmm0, %xmm0 vpslldq $4, %xmm8, %xmm4 vpslldq $8, %xmm8, %xmm6 vpslldq $12, %xmm8, %xmm7 vpternlogq $150, %xmm4, %xmm6, %xmm7 vpshufb %xmm2, %xmm15, %xmm14 vaesenclast %xmm3, %xmm14, %xmm14 vpternlogq $150, %xmm8, %xmm7, %xmm14 #NO_APP vbroadcastss .LCPI1_10(%rip), %xmm3 vmovaps %xmm15, -80(%rsp) #APP vaesenc %xmm15, %xmm0, %xmm0 vpslldq $4, %xmm15, %xmm4 vpslldq $8, %xmm15, %xmm6 vpslldq $12, %xmm15, %xmm7 vpternlogq $150, %xmm4, %xmm6, %xmm7 vpshufd $255, %xmm14, %xmm8 vaesenclast %xmm5, %xmm8, %xmm8 vpternlogq $150, %xmm15, %xmm7, %xmm8 #NO_APP vmovaps %xmm14, -96(%rsp) #APP vaesenc %xmm14, %xmm0, %xmm0 vpslldq $4, %xmm14, %xmm4 vpslldq $8, %xmm14, %xmm6 vpslldq $12, %xmm14, %xmm7 vpternlogq $150, %xmm4, %xmm6, %xmm7 vpshufb %xmm2, %xmm8, %xmm13 vaesenclast %xmm3, %xmm13, %xmm13 vpternlogq $150, %xmm14, %xmm7, %xmm13 #NO_APP vmovdqa %xmm8, %xmm14 #APP vaesenc %xmm8, %xmm0, %xmm0 vpslldq $4, %xmm8, %xmm3 vpslldq $8, %xmm8, %xmm4 vpslldq $12, %xmm8, %xmm6 vpternlogq $150, %xmm3, %xmm4, %xmm6 vpshufd $255, %xmm13, %xmm11 vaesenclast %xmm5, %xmm11, %xmm11 vpternlogq $150, %xmm8, %xmm6, %xmm11 #NO_APP vbroadcastss .LCPI1_11(%rip), %xmm3 #APP vaesenc %xmm13, %xmm0, %xmm0 vpslldq $4, %xmm13, %xmm4 vpslldq $8, %xmm13, %xmm6 vpslldq $12, %xmm13, %xmm7 vpternlogq $150, %xmm4, %xmm6, %xmm7 vpshufb %xmm2, %xmm11, %xmm12 vaesenclast %xmm3, %xmm12, %xmm12 vpternlogq $150, %xmm13, %xmm7, %xmm12 #NO_APP vpslldq $4, %xmm11, %xmm2 vpunpcklqdq %xmm11, %xmm5, %xmm3 vinsertps $55, %xmm11, %xmm0, %xmm4 vpternlogq $150, %xmm3, %xmm2, %xmm4 vpshufd $255, %xmm12, %xmm2 vaesenclast %xmm5, %xmm2, %xmm6 vpternlogq $150, %xmm4, %xmm11, %xmm6 vpshufb %xmm1, %xmm6, %xmm1 vpbroadcastq .LCPI1_12(%rip), %xmm2 vaesenclast %xmm2, %xmm1, %xmm4 vpslldq $4, %xmm12, %xmm1 vpunpcklqdq %xmm12, %xmm5, %xmm2 vinsertps $55, %xmm12, %xmm0, %xmm3 vpternlogq $150, %xmm2, %xmm1, %xmm3 vpternlogq $150, %xmm3, %xmm12, %xmm4 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenclast %xmm4, %xmm0, %xmm0 vpshufb .LCPI1_13(%rip), %xmm0, %xmm0 vpaddq %xmm0, %xmm0, %xmm1 vpsrlq $63, %xmm0, %xmm0 vpshufd $78, %xmm0, %xmm2 vpblendd $12, %xmm0, %xmm5, %xmm0 vpsllq $63, %xmm0, %xmm3 vpternlogq $30, %xmm2, %xmm1, %xmm3 vpsllq $62, %xmm0, %xmm1 vpsllq $57, %xmm0, %xmm15 vpternlogq $150, %xmm1, %xmm3, %xmm15 vpclmulqdq $0, %xmm15, %xmm15, %xmm0 vpshufd $78, %xmm0, %xmm1 vpbroadcastq .LCPI1_14(%rip), %xmm9 vpclmulqdq $16, %xmm9, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $16, %xmm9, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm7 vpclmulqdq $17, %xmm15, %xmm15, %xmm0 vpternlogq $150, %xmm1, %xmm0, %xmm7 vpclmulqdq $16, %xmm15, %xmm7, %xmm0 vpclmulqdq $1, %xmm15, %xmm7, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm0, %xmm1 vpclmulqdq $0, %xmm15, %xmm7, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpshufd $78, %xmm1, %xmm2 vpclmulqdq $16, %xmm9, %xmm1, %xmm1 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm9, %xmm1, %xmm2 vpclmulqdq $17, %xmm15, %xmm7, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpsrldq $8, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm3 vpternlogq $150, %xmm0, %xmm2, %xmm3 vpclmulqdq $0, %xmm3, %xmm3, %xmm0 vpshufd $78, %xmm0, %xmm1 vpclmulqdq $16, %xmm9, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $16, %xmm9, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm2 vmovdqa %xmm3, (%rsp) vpclmulqdq $17, %xmm3, %xmm3, %xmm0 vpternlogq $150, %xmm1, %xmm0, %xmm2 vmovdqa %xmm2, -16(%rsp) vpclmulqdq $0, %xmm7, %xmm7, %xmm0 vpshufd $78, %xmm0, %xmm1 vpclmulqdq $16, %xmm9, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $16, %xmm9, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm3 vmovdqa64 %xmm7, %xmm26 vpclmulqdq $17, %xmm7, %xmm7, %xmm0 vpternlogq $150, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm15, %xmm3, %xmm0 vpclmulqdq $1, %xmm15, %xmm3, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm0, %xmm1 vpclmulqdq $0, %xmm15, %xmm3, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpshufd $78, %xmm1, %xmm2 vpclmulqdq $16, %xmm9, %xmm1, %xmm1 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm9, %xmm1, %xmm2 vmovdqa64 %xmm3, %xmm16 vpclmulqdq $17, %xmm15, %xmm3, %xmm3 vpxor %xmm2, %xmm3, %xmm2 movzbl 16(%rsi), %edx movzbl 17(%rsi), %edi movzbl 23(%rsi), %r11d vpextrb $15, %xmm17, %ebx vpsrldq $8, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm3 vpternlogq $150, %xmm0, %xmm2, %xmm3 shll $8, %edx orl %ebx, %edx shll $16, %edi orl %edx, %edi movzbl 18(%rsi), %edx shll $24, %edx orl %edi, %edx vmovd %edx, %xmm0 vpinsrd $1, 19(%rsi), %xmm0, %xmm0 vpinsrd $2, %r11d, %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm21 testq %r8, %r8 vmovaps %xmm11, -112(%rsp) vmovaps %xmm12, -128(%rsp) vmovdqa %xmm6, -32(%rsp) vmovdqa %xmm4, -48(%rsp) je .LBB1_23 cmpq $96, %r8 jb .LBB1_7 vmovdqa64 %xmm13, %xmm24 vmovdqa64 %xmm14, %xmm23 vmovdqa64 %xmm30, %xmm22 vmovdqa64 %xmm29, %xmm20 vmovdqa64 %xmm27, %xmm19 vmovapd %xmm10, %xmm18 vmovdqa64 %xmm28, %xmm17 vmovdqa64 .LCPI1_13(%rip), %xmm27 movq %r8, %rdx vmovdqa64 %xmm15, %xmm31 vmovdqa64 %xmm26, %xmm15 vmovdqa64 %xmm16, %xmm7 vmovdqa (%rsp), %xmm8 vmovdqa %xmm3, %xmm0 .p2align 4, 0x90 .LBB1_21: vmovdqu64 (%rcx), %xmm16 vmovdqu 16(%rcx), %xmm2 vmovdqu 32(%rcx), %xmm3 vmovdqu 48(%rcx), %xmm4 vmovdqu 64(%rcx), %xmm6 vmovdqu 80(%rcx), %xmm11 vpshufb %xmm27, %xmm4, %xmm4 vpshufb %xmm27, %xmm6, %xmm6 vpshufb %xmm27, %xmm11, %xmm11 vmovdqa64 %xmm31, %xmm1 vpclmulqdq $0, %xmm11, %xmm1, %xmm12 vpclmulqdq $1, %xmm11, %xmm1, %xmm13 vpclmulqdq $16, %xmm11, %xmm1, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $0, %xmm6, %xmm15, %xmm14 vpclmulqdq $1, %xmm6, %xmm15, %xmm10 vpclmulqdq $16, %xmm6, %xmm15, %xmm9 vpternlogq $150, %xmm10, %xmm13, %xmm9 vpclmulqdq $0, %xmm4, %xmm8, %xmm10 vpternlogq $150, %xmm12, %xmm14, %xmm10 vpclmulqdq $1, %xmm4, %xmm8, %xmm12 vpclmulqdq $16, %xmm4, %xmm8, %xmm13 vpternlogq $150, %xmm12, %xmm9, %xmm13 vpshufb %xmm27, %xmm2, %xmm2 vpshufb %xmm27, %xmm3, %xmm3 vpclmulqdq $17, %xmm11, %xmm1, %xmm9 vpclmulqdq $17, %xmm6, %xmm15, %xmm6 vpclmulqdq $17, %xmm4, %xmm8, %xmm4 vpternlogq $150, %xmm9, %xmm6, %xmm4 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $16, %xmm3, %xmm7, %xmm9 vpternlogq $150, %xmm6, %xmm13, %xmm9 vpclmulqdq $0, %xmm3, %xmm7, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm11 vpternlogq $150, %xmm6, %xmm10, %xmm11 vpclmulqdq $1, %xmm2, %xmm0, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm10 vpternlogq $150, %xmm6, %xmm9, %xmm10 vpbroadcastq .LCPI1_14(%rip), %xmm9 vpshufb %xmm27, %xmm16, %xmm1 vpxor %xmm1, %xmm5, %xmm1 vpclmulqdq $17, %xmm3, %xmm7, %xmm3 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpternlogq $150, %xmm3, %xmm4, %xmm2 vpclmulqdq $16, -16(%rsp), %xmm1, %xmm3 vpclmulqdq $1, -16(%rsp), %xmm1, %xmm4 vpternlogq $150, %xmm3, %xmm10, %xmm4 vmovdqa -16(%rsp), %xmm6 vpclmulqdq $0, %xmm1, %xmm6, %xmm3 vpslldq $8, %xmm4, %xmm5 vpternlogq $150, %xmm3, %xmm11, %xmm5 vpclmulqdq $17, %xmm1, %xmm6, %xmm1 vpclmulqdq $16, %xmm9, %xmm5, %xmm3 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm9, %xmm3, %xmm5 vpternlogq $150, %xmm1, %xmm2, %xmm5 vpsrldq $8, %xmm4, %xmm1 vpshufd $78, %xmm3, %xmm2 addq $96, %rcx addq $-96, %rdx vpternlogq $150, %xmm1, %xmm2, %xmm5 cmpq $95, %rdx ja .LBB1_21 vmovdqa64 %xmm17, %xmm28 vmovapd %xmm18, %xmm10 vmovdqa64 %xmm19, %xmm27 vmovdqa64 %xmm20, %xmm29 vmovdqa64 %xmm22, %xmm30 vmovdqa64 %xmm23, %xmm14 vmovdqa64 %xmm24, %xmm13 vmovaps -112(%rsp), %xmm11 vmovaps -128(%rsp), %xmm12 vmovdqa -32(%rsp), %xmm6 vmovdqa -48(%rsp), %xmm4 vmovdqa64 %xmm7, %xmm16 vmovdqa64 %xmm15, %xmm26 vmovdqa64 %xmm31, %xmm15 vmovdqa %xmm0, %xmm3 cmpq $16, %rdx jae .LBB1_14 .LBB1_9: movq %rdx, %rsi testq %rsi, %rsi jne .LBB1_11 jmp .LBB1_24 .LBB1_23: testq %r10, %r10 jne .LBB1_26 jmp .LBB1_44 .LBB1_7: movq %r8, %rdx cmpq $16, %rdx jb .LBB1_9 .LBB1_14: leaq -16(%rdx), %rsi testb $16, %sil je .LBB1_15 cmpq $16, %rsi jae .LBB1_17 .LBB1_10: testq %rsi, %rsi je .LBB1_24 .LBB1_11: movl $-1, %edx bzhil %esi, %edx, %edx kmovd %edx, %k1 vmovdqu8 (%rcx), %xmm0 {%k1} {z} testq %r10, %r10 je .LBB1_43 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB1_45 vpshufb .LCPI1_13(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpclmulqdq $0, %xmm0, %xmm15, %xmm1 vpclmulqdq $1, %xmm0, %xmm15, %xmm2 vmovdqa64 %xmm3, %xmm17 vpclmulqdq $16, %xmm0, %xmm15, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm15, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $16, %xmm9, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm9, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm5 vmovdqa64 %xmm17, %xmm3 vpternlogq $150, %xmm2, %xmm1, %xmm5 jmp .LBB1_26 .LBB1_15: vmovdqu (%rcx), %xmm0 addq $16, %rcx vpshufb .LCPI1_13(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpclmulqdq $0, %xmm0, %xmm15, %xmm1 vpclmulqdq $1, %xmm0, %xmm15, %xmm2 vmovdqa64 %xmm3, %xmm17 vpclmulqdq $16, %xmm0, %xmm15, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm15, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $16, %xmm9, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm9, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm5 vmovdqa64 %xmm17, %xmm3 vpternlogq $150, %xmm2, %xmm1, %xmm5 movq %rsi, %rdx cmpq $16, %rsi jb .LBB1_10 .LBB1_17: vmovdqa64 %xmm3, %xmm17 vmovdqa .LCPI1_13(%rip), %xmm0 .p2align 4, 0x90 .LBB1_18: vmovdqu (%rcx), %xmm1 vmovdqu 16(%rcx), %xmm2 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm1 vpclmulqdq $0, %xmm1, %xmm15, %xmm3 vpclmulqdq $1, %xmm1, %xmm15, %xmm4 vpclmulqdq $16, %xmm1, %xmm15, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm1, %xmm15, %xmm1 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpsrldq $8, %xmm4, %xmm4 vpclmulqdq $16, %xmm9, %xmm3, %xmm5 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $16, %xmm9, %xmm3, %xmm5 vpshufd $78, %xmm3, %xmm3 vpternlogq $150, %xmm1, %xmm4, %xmm5 addq $32, %rcx addq $-32, %rdx vpshufb %xmm0, %xmm2, %xmm1 vpternlogq $150, %xmm3, %xmm5, %xmm1 vpclmulqdq $0, %xmm1, %xmm15, %xmm2 vpclmulqdq $1, %xmm1, %xmm15, %xmm3 vpclmulqdq $16, %xmm1, %xmm15, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm15, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpclmulqdq $16, %xmm9, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm9, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm1, %xmm4, %xmm5 vpternlogq $150, %xmm3, %xmm2, %xmm5 cmpq $15, %rdx ja .LBB1_18 movq %rdx, %rsi vmovdqa -48(%rsp), %xmm4 vmovdqa64 %xmm17, %xmm3 testq %rsi, %rsi jne .LBB1_11 .LBB1_24: testq %r10, %r10 je .LBB1_44 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB1_45 .LBB1_26: movq 200(%rsp), %rdx vpshufb .LCPI1_15(%rip), %xmm21, %xmm1 vpaddd .LCPI1_16(%rip), %xmm1, %xmm17 cmpq $96, %r10 jb .LBB1_27 vmovdqa %xmm3, 16(%rsp) vmovdqa64 .LCPI1_13(%rip), %xmm18 vpshufb %xmm18, %xmm17, %xmm0 vpaddd .LCPI1_17(%rip), %xmm1, %xmm2 vpshufb %xmm18, %xmm2, %xmm2 vpaddd .LCPI1_18(%rip), %xmm1, %xmm3 vpshufb %xmm18, %xmm3, %xmm3 vmovdqa64 %xmm4, %xmm20 vpaddd .LCPI1_19(%rip), %xmm1, %xmm4 vpshufb %xmm18, %xmm4, %xmm4 vpaddd .LCPI1_20(%rip), %xmm1, %xmm6 vpshufb %xmm18, %xmm6, %xmm6 vpaddd .LCPI1_21(%rip), %xmm1, %xmm9 vpshufb %xmm18, %xmm9, %xmm9 vpxorq %xmm0, %xmm28, %xmm0 vpxorq %xmm2, %xmm28, %xmm2 vpxorq %xmm3, %xmm28, %xmm3 vpxorq %xmm4, %xmm28, %xmm4 vmovaps %xmm11, %xmm19 vpxorq %xmm6, %xmm28, %xmm11 vmovdqa64 %xmm28, 32(%rsp) vmovdqa64 %xmm10, %xmm24 vmovdqa64 %xmm30, %xmm6 vmovdqa %xmm12, %xmm8 vpxorq %xmm9, %xmm28, %xmm12 vmovdqa %xmm10, %xmm7 #APP vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm10, %xmm4, %xmm4 vaesenc %xmm10, %xmm11, %xmm11 vaesenc %xmm10, %xmm12, %xmm12 #NO_APP vmovdqa64 %xmm27, %xmm10 #APP vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm10, %xmm4, %xmm4 vaesenc %xmm10, %xmm11, %xmm11 vaesenc %xmm10, %xmm12, %xmm12 #NO_APP vmovdqa64 %xmm29, %xmm9 vmovdqa64 %xmm29, 144(%rsp) #APP vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm11, %xmm11 vaesenc %xmm9, %xmm12, %xmm12 #NO_APP vmovdqa64 %xmm25, %xmm9 vmovdqa64 %xmm25, 128(%rsp) #APP vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm11, %xmm11 vaesenc %xmm9, %xmm12, %xmm12 #NO_APP vmovdqa64 %xmm30, 112(%rsp) #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 #NO_APP vmovaps -64(%rsp), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 #NO_APP vmovaps -80(%rsp), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 #NO_APP vmovaps -96(%rsp), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 #NO_APP #APP vaesenc %xmm14, %xmm0, %xmm0 vaesenc %xmm14, %xmm2, %xmm2 vaesenc %xmm14, %xmm3, %xmm3 vaesenc %xmm14, %xmm4, %xmm4 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP #APP vaesenc %xmm13, %xmm0, %xmm0 vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm13, %xmm3, %xmm3 vaesenc %xmm13, %xmm4, %xmm4 vaesenc %xmm13, %xmm11, %xmm11 vaesenc %xmm13, %xmm12, %xmm12 #NO_APP vmovaps %xmm19, %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 #NO_APP #APP vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm12, %xmm12 #NO_APP vmovaps -32(%rsp), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 #NO_APP vmovdqa64 %xmm20, %xmm6 #APP vaesenclast %xmm6, %xmm0, %xmm0 vaesenclast %xmm6, %xmm2, %xmm2 vaesenclast %xmm6, %xmm3, %xmm3 vaesenclast %xmm6, %xmm4, %xmm4 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm6, %xmm12, %xmm12 #NO_APP vpxorq (%r9), %xmm0, %xmm19 vpxorq 16(%r9), %xmm2, %xmm20 vpxorq 32(%r9), %xmm3, %xmm28 vpxorq 48(%r9), %xmm4, %xmm29 vpxorq 64(%r9), %xmm11, %xmm30 vpxor 80(%r9), %xmm12, %xmm2 leaq 96(%r9), %r9 leaq 96(%rdx), %rcx vpaddd .LCPI1_22(%rip), %xmm1, %xmm17 vmovdqu64 %xmm19, (%rdx) vmovdqu64 %xmm20, 16(%rdx) vmovdqu64 %xmm28, 32(%rdx) vmovdqu64 %xmm29, 48(%rdx) leaq -96(%r10), %rax vmovdqu64 %xmm30, 64(%rdx) vmovdqu %xmm2, 80(%rdx) cmpq $96, %rax jb .LBB1_33 vmovdqa64 %xmm21, 160(%rsp) vmovdqa64 32(%rsp), %xmm31 vmovdqa %xmm7, 96(%rsp) vmovdqa %xmm10, 80(%rsp) vmovaps -96(%rsp), %xmm24 vmovdqa %xmm14, 48(%rsp) vmovdqa %xmm13, 64(%rsp) vmovaps -112(%rsp), %xmm21 vmovdqa64 -128(%rsp), %xmm23 vmovdqa64 -48(%rsp), %xmm25 vmovaps (%rsp), %xmm27 vmovdqa64 16(%rsp), %xmm22 .p2align 4, 0x90 .LBB1_36: vpshufb %xmm18, %xmm17, %xmm0 vpaddd .LCPI1_16(%rip), %xmm17, %xmm1 vpshufb %xmm18, %xmm1, %xmm1 vpaddd .LCPI1_17(%rip), %xmm17, %xmm3 vpshufb %xmm18, %xmm3, %xmm4 vpaddd .LCPI1_18(%rip), %xmm17, %xmm3 vpshufb %xmm18, %xmm3, %xmm9 vpaddd .LCPI1_19(%rip), %xmm17, %xmm3 vpshufb %xmm18, %xmm3, %xmm10 vpaddd .LCPI1_20(%rip), %xmm17, %xmm3 vpshufb %xmm18, %xmm3, %xmm12 vpshufb %xmm18, %xmm2, %xmm6 vpxorq %xmm0, %xmm31, %xmm3 vpxorq %xmm1, %xmm31, %xmm13 vpxorq %xmm4, %xmm31, %xmm1 vpxorq %xmm9, %xmm31, %xmm11 vpxorq %xmm10, %xmm31, %xmm14 vmovdqa -16(%rsp), %xmm10 vpxorq %xmm12, %xmm31, %xmm2 vmovaps 96(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm2, %xmm2 #NO_APP vxorps %xmm0, %xmm0, %xmm0 vpxor %xmm4, %xmm4, %xmm4 vpxor %xmm12, %xmm12, %xmm12 vmovaps 80(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm2, %xmm2 vpclmulqdq $16, %xmm15, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $0, %xmm15, %xmm6, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $17, %xmm15, %xmm6, %xmm9 vpxor %xmm9, %xmm12, %xmm12 vpclmulqdq $1, %xmm15, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 #NO_APP vmovdqa64 %xmm26, %xmm8 vpshufb %xmm18, %xmm30, %xmm6 vmovaps 144(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm2, %xmm2 #NO_APP vmovaps 128(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm2, %xmm2 vpclmulqdq $16, %xmm8, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $0, %xmm8, %xmm6, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $17, %xmm8, %xmm6, %xmm9 vpxor %xmm9, %xmm12, %xmm12 vpclmulqdq $1, %xmm8, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 #NO_APP vpshufb %xmm18, %xmm29, %xmm6 vmovaps 112(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm2, %xmm2 #NO_APP vmovaps %xmm27, %xmm8 vmovaps -64(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm2, %xmm2 vpclmulqdq $16, %xmm8, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $0, %xmm8, %xmm6, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $17, %xmm8, %xmm6, %xmm9 vpxor %xmm9, %xmm12, %xmm12 vpclmulqdq $1, %xmm8, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 #NO_APP vpshufb %xmm18, %xmm28, %xmm6 vmovaps -80(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm2, %xmm2 #NO_APP vmovdqa64 %xmm16, %xmm7 vmovaps %xmm24, %xmm8 #APP vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm2, %xmm2 vpclmulqdq $16, %xmm7, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $0, %xmm7, %xmm6, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $17, %xmm7, %xmm6, %xmm9 vpxor %xmm9, %xmm12, %xmm12 vpclmulqdq $1, %xmm7, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 #NO_APP vpshufb %xmm18, %xmm20, %xmm6 vmovaps 48(%rsp), %xmm8 #APP vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm2, %xmm2 #NO_APP vmovaps 64(%rsp), %xmm7 vmovdqa64 %xmm22, %xmm8 #APP vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm2, %xmm2 vpclmulqdq $16, %xmm8, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $0, %xmm8, %xmm6, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $17, %xmm8, %xmm6, %xmm9 vpxor %xmm9, %xmm12, %xmm12 vpclmulqdq $1, %xmm8, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 #NO_APP vpshufb %xmm18, %xmm19, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vmovaps %xmm21, %xmm6 #APP vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm14, %xmm14 vaesenc %xmm6, %xmm2, %xmm2 #NO_APP vmovdqa64 %xmm23, %xmm7 #APP vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm2, %xmm2 vpclmulqdq $16, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $0, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $17, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm12, %xmm12 vpclmulqdq $1, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 #NO_APP vmovaps -32(%rsp), %xmm5 #APP vaesenc %xmm5, %xmm3, %xmm3 vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm5, %xmm1, %xmm1 vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm5, %xmm14, %xmm14 vaesenc %xmm5, %xmm2, %xmm2 #NO_APP vmovdqa64 %xmm25, %xmm5 #APP vaesenclast %xmm5, %xmm3, %xmm3 vaesenclast %xmm5, %xmm13, %xmm13 vaesenclast %xmm5, %xmm1, %xmm1 vaesenclast %xmm5, %xmm11, %xmm11 vaesenclast %xmm5, %xmm14, %xmm14 vaesenclast %xmm5, %xmm2, %xmm2 #NO_APP vpxorq (%r9), %xmm3, %xmm19 vpxorq 16(%r9), %xmm13, %xmm20 vpxorq 32(%r9), %xmm1, %xmm28 vpxorq 48(%r9), %xmm11, %xmm29 vpxor %xmm3, %xmm3, %xmm3 vpunpcklqdq %xmm4, %xmm3, %xmm1 vpunpckhqdq %xmm3, %xmm4, %xmm3 vpxorq 64(%r9), %xmm14, %xmm30 vpxor 80(%r9), %xmm2, %xmm2 vpxor %xmm1, %xmm0, %xmm0 vpshufd $78, %xmm0, %xmm1 vpbroadcastq .LCPI1_14(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm3, %xmm12, %xmm5 vpshufd $78, %xmm0, %xmm1 vpclmulqdq $16, %xmm4, %xmm0, %xmm0 vpternlogq $150, %xmm0, %xmm1, %xmm5 addq $96, %r9 vmovdqu64 %xmm19, (%rcx) vmovdqu64 %xmm20, 16(%rcx) vmovdqu64 %xmm28, 32(%rcx) vmovdqu64 %xmm29, 48(%rcx) vmovdqu64 %xmm30, 64(%rcx) vmovdqu %xmm2, 80(%rcx) addq $96, %rcx addq $-96, %rax vpaddd .LCPI1_21(%rip), %xmm17, %xmm17 cmpq $95, %rax ja .LBB1_36 vmovdqa64 96(%rsp), %xmm24 vmovdqa64 80(%rsp), %xmm27 vmovdqa 48(%rsp), %xmm14 vmovdqa 64(%rsp), %xmm13 vmovdqa64 160(%rsp), %xmm21 jmp .LBB1_34 .LBB1_27: vmovdqa64 %xmm10, %xmm24 movq %r10, %rax vmovdqa64 %xmm28, %xmm3 jmp .LBB1_28 .LBB1_33: vmovdqa -16(%rsp), %xmm10 .LBB1_34: vpshufb %xmm18, %xmm29, %xmm0 vpshufb %xmm18, %xmm30, %xmm1 vpshufb %xmm18, %xmm2, %xmm2 vpclmulqdq $0, %xmm2, %xmm15, %xmm3 vpclmulqdq $1, %xmm2, %xmm15, %xmm4 vpclmulqdq $16, %xmm2, %xmm15, %xmm6 vpxor %xmm4, %xmm6, %xmm4 vmovdqa64 %xmm26, %xmm7 vpclmulqdq $1, %xmm1, %xmm7, %xmm6 vpclmulqdq $16, %xmm1, %xmm7, %xmm9 vpternlogq $150, %xmm6, %xmm4, %xmm9 vpclmulqdq $0, %xmm1, %xmm7, %xmm4 vmovdqa (%rsp), %xmm8 vpclmulqdq $0, %xmm0, %xmm8, %xmm6 vpternlogq $150, %xmm3, %xmm4, %xmm6 vpclmulqdq $1, %xmm0, %xmm8, %xmm3 vpclmulqdq $16, %xmm0, %xmm8, %xmm4 vpternlogq $150, %xmm3, %xmm9, %xmm4 vpclmulqdq $17, %xmm1, %xmm7, %xmm1 vpshufb %xmm18, %xmm20, %xmm3 vpclmulqdq $17, %xmm0, %xmm8, %xmm0 vpshufb %xmm18, %xmm28, %xmm7 vpclmulqdq $17, %xmm2, %xmm15, %xmm2 vpternlogq $150, %xmm2, %xmm1, %xmm0 vmovdqa64 %xmm16, %xmm11 vpclmulqdq $1, %xmm7, %xmm11, %xmm1 vpclmulqdq $16, %xmm7, %xmm11, %xmm2 vpternlogq $150, %xmm1, %xmm4, %xmm2 vpclmulqdq $0, %xmm7, %xmm11, %xmm1 vmovdqa 16(%rsp), %xmm8 vpclmulqdq $0, %xmm3, %xmm8, %xmm4 vpternlogq $150, %xmm1, %xmm6, %xmm4 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpclmulqdq $16, %xmm3, %xmm8, %xmm6 vpternlogq $150, %xmm1, %xmm2, %xmm6 vpclmulqdq $17, %xmm7, %xmm11, %xmm1 vpclmulqdq $17, %xmm3, %xmm8, %xmm2 vpshufb %xmm18, %xmm19, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpternlogq $150, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm3, %xmm10, %xmm0 vpclmulqdq $16, %xmm3, %xmm10, %xmm1 vpternlogq $150, %xmm0, %xmm6, %xmm1 vpclmulqdq $0, %xmm3, %xmm10, %xmm0 vpslldq $8, %xmm1, %xmm5 vpternlogq $150, %xmm0, %xmm4, %xmm5 vpclmulqdq $17, %xmm3, %xmm10, %xmm0 vpbroadcastq .LCPI1_14(%rip), %xmm6 vpclmulqdq $16, %xmm6, %xmm5, %xmm3 vpshufd $78, %xmm5, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm6, %xmm3, %xmm5 vpternlogq $150, %xmm0, %xmm2, %xmm5 vpsrldq $8, %xmm1, %xmm0 vpshufd $78, %xmm3, %xmm1 vpternlogq $150, %xmm0, %xmm1, %xmm5 movq %rcx, %rdx vmovdqa 32(%rsp), %xmm3 vmovdqa64 144(%rsp), %xmm29 vmovdqa64 128(%rsp), %xmm25 vmovdqa64 112(%rsp), %xmm30 vmovdqa -32(%rsp), %xmm6 vmovdqa -48(%rsp), %xmm4 .LBB1_28: vmovdqa64 %xmm13, %xmm19 vmovdqa64 %xmm14, %xmm18 cmpq $16, %rax vmovdqa64 %xmm3, %xmm28 jb .LBB1_29 vmovdqa64 .LCPI1_13(%rip), %xmm23 vpmovsxbq .LCPI1_25(%rip), %xmm20 vmovdqa64 -96(%rsp), %xmm16 vmovdqa64 %xmm18, %xmm22 vmovdqa64 %xmm19, %xmm11 vmovdqa -112(%rsp), %xmm12 vmovdqa64 -128(%rsp), %xmm31 vpbroadcastq .LCPI1_14(%rip), %xmm26 vmovdqa64 %xmm24, %xmm1 vmovdqa64 %xmm27, %xmm8 vmovdqa64 %xmm29, %xmm7 vmovdqa64 %xmm25, %xmm0 vmovdqa64 %xmm30, %xmm14 vmovdqa -80(%rsp), %xmm13 vmovdqa -64(%rsp), %xmm10 .p2align 4, 0x90 .LBB1_39: vpshufb %xmm23, %xmm17, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm14, %xmm2, %xmm2 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm13, %xmm2, %xmm2 vmovdqa64 %xmm16, %xmm3 vaesenc %xmm3, %xmm2, %xmm2 vmovdqa64 %xmm22, %xmm3 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm12, %xmm2, %xmm2 vmovdqa64 %xmm31, %xmm3 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm6, %xmm2, %xmm2 vaesenclast %xmm4, %xmm2, %xmm2 vpxor (%r9), %xmm2, %xmm2 vpshufb %xmm23, %xmm2, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $1, %xmm3, %xmm15, %xmm4 vpclmulqdq $16, %xmm3, %xmm15, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $0, %xmm3, %xmm15, %xmm5 vpclmulqdq $17, %xmm3, %xmm15, %xmm3 vpslldq $8, %xmm4, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vmovdqa64 %xmm26, %xmm9 vpclmulqdq $16, %xmm9, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm9, %xmm6, %xmm5 vpxor %xmm3, %xmm5, %xmm5 vpshufd $78, %xmm6, %xmm3 vmovdqa -32(%rsp), %xmm6 leaq 16(%r9), %rsi leaq 16(%rdx), %rcx addq $-16, %rax vpaddd %xmm20, %xmm17, %xmm17 vmovdqu %xmm2, (%rdx) vpsrldq $8, %xmm4, %xmm2 vmovdqa -48(%rsp), %xmm4 vpternlogq $150, %xmm2, %xmm3, %xmm5 vmovdqa64 %xmm28, %xmm3 movq %rcx, %rdx movq %rsi, %r9 cmpq $15, %rax ja .LBB1_39 testq %rax, %rax je .LBB1_31 .LBB1_40: movl $-1, %edx bzhil %eax, %edx, %eax kmovd %eax, %k1 vmovdqu8 (%rsi), %xmm0 {%k1} {z} vpshufb .LCPI1_13(%rip), %xmm17, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vmovdqa64 %xmm24, %xmm10 vaesenc %xmm10, %xmm1, %xmm1 vmovdqa64 %xmm27, %xmm2 vaesenc %xmm2, %xmm1, %xmm1 vmovdqa64 %xmm29, %xmm2 vaesenc %xmm2, %xmm1, %xmm1 vmovdqa64 %xmm25, %xmm2 vaesenc %xmm2, %xmm1, %xmm1 vmovdqa64 %xmm30, %xmm2 vaesenc %xmm2, %xmm1, %xmm1 vaesenc -64(%rsp), %xmm1, %xmm1 vaesenc -80(%rsp), %xmm1, %xmm1 vaesenc -96(%rsp), %xmm1, %xmm1 vmovdqa64 %xmm18, %xmm14 vaesenc %xmm14, %xmm1, %xmm1 vmovdqa64 %xmm19, %xmm13 vaesenc %xmm13, %xmm1, %xmm1 vmovdqa -112(%rsp), %xmm11 vaesenc %xmm11, %xmm1, %xmm1 vmovdqa -128(%rsp), %xmm12 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm6, %xmm1, %xmm1 vaesenclast %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vmovdqu8 %xmm0, (%rcx) {%k1} testq %r10, %r10 je .LBB1_42 vmovdqu8 %xmm0, %xmm0 {%k1} {z} .LBB1_42: vpbroadcastq .LCPI1_14(%rip), %xmm9 .LBB1_43: vpshufb .LCPI1_13(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpclmulqdq $0, %xmm0, %xmm15, %xmm1 vpclmulqdq $1, %xmm0, %xmm15, %xmm2 vpclmulqdq $16, %xmm0, %xmm15, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm15, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $16, %xmm9, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm9, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm5 vpternlogq $150, %xmm2, %xmm1, %xmm5 jmp .LBB1_44 .LBB1_29: movq %rdx, %rcx movq %r9, %rsi testq %rax, %rax jne .LBB1_40 .LBB1_31: vmovdqa64 %xmm18, %xmm14 vmovdqa64 %xmm19, %xmm13 vmovaps -112(%rsp), %xmm11 vmovaps -128(%rsp), %xmm12 vpbroadcastq .LCPI1_14(%rip), %xmm9 vmovdqa64 %xmm24, %xmm10 .LBB1_44: vmovq %r8, %xmm0 vmovq %r10, %xmm1 vpunpcklqdq %xmm0, %xmm1, %xmm0 vpsllq $3, %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpclmulqdq $1, %xmm0, %xmm15, %xmm1 vpclmulqdq $16, %xmm0, %xmm15, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $0, %xmm0, %xmm15, %xmm2 vpclmulqdq $17, %xmm0, %xmm15, %xmm0 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpshufd $78, %xmm2, %xmm3 vpclmulqdq $16, %xmm9, %xmm2, %xmm2 vpxor %xmm3, %xmm2, %xmm2 vpclmulqdq $16, %xmm9, %xmm2, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpxorq %xmm21, %xmm28, %xmm3 vaesenc %xmm10, %xmm3, %xmm3 vmovdqa64 %xmm27, %xmm5 vaesenc %xmm5, %xmm3, %xmm3 vmovdqa64 %xmm29, %xmm5 vaesenc %xmm5, %xmm3, %xmm3 vmovdqa64 %xmm25, %xmm5 vaesenc %xmm5, %xmm3, %xmm3 vmovdqa64 %xmm30, %xmm5 vaesenc %xmm5, %xmm3, %xmm3 vaesenc -64(%rsp), %xmm3, %xmm3 vaesenc -80(%rsp), %xmm3, %xmm3 vaesenc -96(%rsp), %xmm3, %xmm3 vaesenc %xmm14, %xmm3, %xmm3 vaesenc %xmm13, %xmm3, %xmm3 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm6, %xmm3, %xmm3 vaesenclast %xmm4, %xmm3, %xmm3 vpshufb .LCPI1_24(%rip), %xmm2, %xmm2 vpshufb .LCPI1_13(%rip), %xmm0, %xmm0 vpshufb .LCPI1_23(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpternlogq $150, %xmm0, %xmm3, %xmm2 movq 216(%rsp), %rax vmovdqu %xmm2, (%rax) movl $1, %eax .LBB1_45: addq $176, %rsp .cfi_def_cfa_offset 16 popq %rbx .cfi_def_cfa_offset 8 retq .Lfunc_end1: .size haberdashery_aes256gcmdndkv2_skylakex_encrypt, .Lfunc_end1-haberdashery_aes256gcmdndkv2_skylakex_encrypt .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 0 .LCPI2_1: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 96 .LCPI2_2: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 97 .LCPI2_3: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 98 .LCPI2_4: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI2_13: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_15: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_16: .long 1 .long 0 .long 0 .long 0 .LCPI2_17: .long 2 .long 0 .long 0 .long 0 .LCPI2_18: .long 3 .long 0 .long 0 .long 0 .LCPI2_19: .long 4 .long 0 .long 0 .long 0 .LCPI2_20: .long 5 .long 0 .long 0 .long 0 .LCPI2_21: .long 6 .long 0 .long 0 .long 0 .LCPI2_22: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI2_23: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI2_5: .quad 4294967297 .LCPI2_12: .quad 274877907008 .LCPI2_14: .quad -4467570830351532032 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI2_6: .long 0x00000002 .LCPI2_7: .long 0x0c0f0e0d .LCPI2_8: .long 0x00000004 .LCPI2_9: .long 0x00000008 .LCPI2_10: .long 0x00000010 .LCPI2_11: .long 0x00000020 .section .rodata,"a",@progbits .LCPI2_24: .byte 1 .byte 0 .section .text.haberdashery_aes256gcmdndkv2_skylakex_decrypt,"ax",@progbits .globl haberdashery_aes256gcmdndkv2_skylakex_decrypt .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2_skylakex_decrypt,@function haberdashery_aes256gcmdndkv2_skylakex_decrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %rbx .cfi_def_cfa_offset 24 subq $120, %rsp .cfi_def_cfa_offset 144 .cfi_offset %rbx, -24 .cfi_offset %rbp, -16 movq 144(%rsp), %r10 xorl %eax, %eax cmpq 176(%rsp), %r10 jne .LBB2_44 movq %r10, %r11 shrq $5, %r11 cmpq $2147483646, %r11 ja .LBB2_44 movabsq $2305843009213693950, %r11 cmpq %r11, %r8 ja .LBB2_44 cmpq $24, %rdx jne .LBB2_44 cmpq $16, 160(%rsp) jne .LBB2_44 vmovdqu64 (%rsi), %xmm16 vmovdqa (%rdi), %xmm14 vmovdqa 16(%rdi), %xmm9 vmovdqa 32(%rdi), %xmm0 vmovdqa 48(%rdi), %xmm1 vpternlogq $120, .LCPI2_0(%rip), %xmm16, %xmm14 vpxor .LCPI2_1(%rip), %xmm14, %xmm2 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm0, %xmm2, %xmm3 vmovdqa 64(%rdi), %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm2, %xmm3, %xmm5 vmovdqa 80(%rdi), %xmm3 vmovdqa 96(%rdi), %xmm4 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm4, %xmm5, %xmm7 vmovdqa 112(%rdi), %xmm5 vmovdqa 128(%rdi), %xmm6 vaesenc %xmm5, %xmm7, %xmm7 vaesenc %xmm6, %xmm7, %xmm11 vmovdqa 144(%rdi), %xmm7 vmovdqa 160(%rdi), %xmm8 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm8, %xmm11, %xmm13 vmovdqa 176(%rdi), %xmm11 vmovdqa 192(%rdi), %xmm12 vaesenc %xmm11, %xmm13, %xmm13 vaesenc %xmm12, %xmm13, %xmm15 vmovdqa 208(%rdi), %xmm13 vpxor .LCPI2_2(%rip), %xmm14, %xmm10 vaesenc %xmm9, %xmm10, %xmm10 vpxor .LCPI2_3(%rip), %xmm14, %xmm14 vaesenc %xmm9, %xmm14, %xmm9 vmovdqa 224(%rdi), %xmm14 vaesenc %xmm13, %xmm15, %xmm15 vaesenclast %xmm14, %xmm15, %xmm15 vaesenc %xmm0, %xmm10, %xmm10 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm5, %xmm10, %xmm10 vaesenc %xmm6, %xmm10, %xmm10 vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm8, %xmm10, %xmm10 vaesenc %xmm11, %xmm10, %xmm10 vaesenc %xmm12, %xmm10, %xmm10 vaesenc %xmm13, %xmm10, %xmm10 vaesenclast %xmm14, %xmm10, %xmm10 vaesenc %xmm0, %xmm9, %xmm0 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm13, %xmm0, %xmm0 vaesenclast %xmm14, %xmm0, %xmm0 vpxor %xmm15, %xmm10, %xmm11 vpxor %xmm0, %xmm15, %xmm12 vpslldq $4, %xmm11, %xmm0 vpslldq $8, %xmm11, %xmm1 vpslldq $12, %xmm11, %xmm2 vpternlogq $150, %xmm1, %xmm0, %xmm2 vpbroadcastd .LCPI2_7(%rip), %xmm1 vpshufb %xmm1, %xmm12, %xmm0 vpbroadcastq .LCPI2_5(%rip), %xmm3 vaesenclast %xmm3, %xmm0, %xmm8 vpternlogq $150, %xmm2, %xmm11, %xmm8 vaesenc %xmm12, %xmm11, %xmm0 vpslldq $4, %xmm12, %xmm2 vpslldq $8, %xmm12, %xmm3 vpslldq $12, %xmm12, %xmm4 vpternlogq $150, %xmm3, %xmm2, %xmm4 vpshufd $255, %xmm8, %xmm2 vpxor %xmm5, %xmm5, %xmm5 vaesenclast %xmm5, %xmm2, %xmm9 vpternlogq $150, %xmm4, %xmm12, %xmm9 vbroadcastss .LCPI2_6(%rip), %xmm3 vbroadcastss .LCPI2_7(%rip), %xmm2 vmovdqa %xmm8, -48(%rsp) #APP vaesenc %xmm8, %xmm0, %xmm0 vpslldq $4, %xmm8, %xmm4 vpslldq $8, %xmm8, %xmm6 vpslldq $12, %xmm8, %xmm7 vpternlogq $150, %xmm4, %xmm6, %xmm7 vpshufb %xmm2, %xmm9, %xmm10 vaesenclast %xmm3, %xmm10, %xmm10 vpternlogq $150, %xmm8, %xmm7, %xmm10 #NO_APP vmovdqa %xmm9, -32(%rsp) #APP vaesenc %xmm9, %xmm0, %xmm0 vpslldq $4, %xmm9, %xmm3 vpslldq $8, %xmm9, %xmm4 vpslldq $12, %xmm9, %xmm6 vpternlogq $150, %xmm3, %xmm4, %xmm6 vpshufd $255, %xmm10, %xmm8 vaesenclast %xmm5, %xmm8, %xmm8 vpternlogq $150, %xmm9, %xmm6, %xmm8 #NO_APP vbroadcastss .LCPI2_8(%rip), %xmm3 vmovdqa64 %xmm10, %xmm19 #APP vaesenc %xmm10, %xmm0, %xmm0 vpslldq $4, %xmm10, %xmm4 vpslldq $8, %xmm10, %xmm6 vpslldq $12, %xmm10, %xmm7 vpternlogq $150, %xmm4, %xmm6, %xmm7 vpshufb %xmm2, %xmm8, %xmm14 vaesenclast %xmm3, %xmm14, %xmm14 vpternlogq $150, %xmm10, %xmm7, %xmm14 #NO_APP vmovapd %xmm8, %xmm31 #APP vaesenc %xmm8, %xmm0, %xmm0 vpslldq $4, %xmm8, %xmm3 vpslldq $8, %xmm8, %xmm4 vpslldq $12, %xmm8, %xmm6 vpternlogq $150, %xmm3, %xmm4, %xmm6 vpshufd $255, %xmm14, %xmm9 vaesenclast %xmm5, %xmm9, %xmm9 vpternlogq $150, %xmm8, %xmm6, %xmm9 #NO_APP vbroadcastss .LCPI2_9(%rip), %xmm3 vmovdqa64 %xmm14, %xmm27 #APP vaesenc %xmm14, %xmm0, %xmm0 vpslldq $4, %xmm14, %xmm4 vpslldq $8, %xmm14, %xmm6 vpslldq $12, %xmm14, %xmm7 vpternlogq $150, %xmm4, %xmm6, %xmm7 vpshufb %xmm2, %xmm9, %xmm13 vaesenclast %xmm3, %xmm13, %xmm13 vpternlogq $150, %xmm14, %xmm7, %xmm13 #NO_APP vmovaps %xmm9, (%rsp) #APP vaesenc %xmm9, %xmm0, %xmm0 vpslldq $4, %xmm9, %xmm3 vpslldq $8, %xmm9, %xmm4 vpslldq $12, %xmm9, %xmm6 vpternlogq $150, %xmm3, %xmm4, %xmm6 vpshufd $255, %xmm13, %xmm14 vaesenclast %xmm5, %xmm14, %xmm14 vpternlogq $150, %xmm9, %xmm6, %xmm14 #NO_APP vbroadcastss .LCPI2_10(%rip), %xmm3 vmovaps %xmm13, -128(%rsp) #APP vaesenc %xmm13, %xmm0, %xmm0 vpslldq $4, %xmm13, %xmm4 vpslldq $8, %xmm13, %xmm6 vpslldq $12, %xmm13, %xmm7 vpternlogq $150, %xmm4, %xmm6, %xmm7 vpshufb %xmm2, %xmm14, %xmm9 vaesenclast %xmm3, %xmm9, %xmm9 vpternlogq $150, %xmm13, %xmm7, %xmm9 #NO_APP vmovdqa %xmm14, %xmm13 vmovdqa %xmm9, %xmm14 #APP vaesenc %xmm13, %xmm0, %xmm0 vpslldq $4, %xmm13, %xmm3 vpslldq $8, %xmm13, %xmm4 vpslldq $12, %xmm13, %xmm6 vpternlogq $150, %xmm3, %xmm4, %xmm6 vpshufd $255, %xmm9, %xmm15 vaesenclast %xmm5, %xmm15, %xmm15 vpternlogq $150, %xmm13, %xmm6, %xmm15 #NO_APP vbroadcastss .LCPI2_11(%rip), %xmm3 #APP vaesenc %xmm9, %xmm0, %xmm0 vpslldq $4, %xmm9, %xmm4 vpslldq $8, %xmm9, %xmm6 vpslldq $12, %xmm9, %xmm7 vpternlogq $150, %xmm4, %xmm6, %xmm7 vpshufb %xmm2, %xmm15, %xmm8 vaesenclast %xmm3, %xmm8, %xmm8 vpternlogq $150, %xmm9, %xmm7, %xmm8 #NO_APP vpslldq $4, %xmm15, %xmm2 vpunpcklqdq %xmm15, %xmm5, %xmm3 vinsertps $55, %xmm15, %xmm0, %xmm4 vpternlogq $150, %xmm3, %xmm2, %xmm4 vpshufd $255, %xmm8, %xmm2 vaesenclast %xmm5, %xmm2, %xmm10 vpternlogq $150, %xmm4, %xmm15, %xmm10 vpshufb %xmm1, %xmm10, %xmm1 vpbroadcastq .LCPI2_12(%rip), %xmm2 vaesenclast %xmm2, %xmm1, %xmm7 vpslldq $4, %xmm8, %xmm1 vpunpcklqdq %xmm8, %xmm5, %xmm2 vinsertps $55, %xmm8, %xmm0, %xmm3 vpternlogq $150, %xmm2, %xmm1, %xmm3 vpternlogq $150, %xmm3, %xmm8, %xmm7 vaesenc %xmm15, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm10, %xmm0, %xmm0 vaesenclast %xmm7, %xmm0, %xmm0 vpshufb .LCPI2_13(%rip), %xmm0, %xmm0 vpaddq %xmm0, %xmm0, %xmm1 vpsrlq $63, %xmm0, %xmm0 vpshufd $78, %xmm0, %xmm2 vpblendd $12, %xmm0, %xmm5, %xmm0 vpsllq $63, %xmm0, %xmm3 vpternlogq $30, %xmm2, %xmm1, %xmm3 vpsllq $62, %xmm0, %xmm1 vpsllq $57, %xmm0, %xmm4 vpternlogq $150, %xmm1, %xmm3, %xmm4 vpclmulqdq $0, %xmm4, %xmm4, %xmm0 vpshufd $78, %xmm0, %xmm1 vpbroadcastq .LCPI2_14(%rip), %xmm6 vpclmulqdq $16, %xmm6, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $16, %xmm6, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm9 vpclmulqdq $17, %xmm4, %xmm4, %xmm0 vpternlogq $150, %xmm1, %xmm0, %xmm9 vpclmulqdq $16, %xmm4, %xmm9, %xmm0 vpclmulqdq $1, %xmm4, %xmm9, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm0, %xmm1 vpclmulqdq $0, %xmm4, %xmm9, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpshufd $78, %xmm1, %xmm2 vpclmulqdq $16, %xmm6, %xmm1, %xmm1 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm6, %xmm1, %xmm2 vpclmulqdq $17, %xmm4, %xmm9, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpsrldq $8, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm3 vpternlogq $150, %xmm0, %xmm2, %xmm3 vpclmulqdq $0, %xmm3, %xmm3, %xmm0 vpshufd $78, %xmm0, %xmm1 vpclmulqdq $16, %xmm6, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $16, %xmm6, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm2 vmovdqa %xmm3, 64(%rsp) vpclmulqdq $17, %xmm3, %xmm3, %xmm0 vpternlogq $150, %xmm1, %xmm0, %xmm2 vmovdqa %xmm2, 48(%rsp) vpclmulqdq $0, %xmm9, %xmm9, %xmm0 vpshufd $78, %xmm0, %xmm1 vpclmulqdq $16, %xmm6, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $16, %xmm6, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm3 vmovdqa %xmm9, 96(%rsp) vpclmulqdq $17, %xmm9, %xmm9, %xmm0 vpternlogq $150, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm4, %xmm3, %xmm0 vpclmulqdq $1, %xmm4, %xmm3, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm0, %xmm1 vpclmulqdq $0, %xmm4, %xmm3, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpshufd $78, %xmm1, %xmm2 vpclmulqdq $16, %xmm6, %xmm1, %xmm1 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm6, %xmm1, %xmm2 vmovdqa %xmm3, %xmm6 vpclmulqdq $17, %xmm4, %xmm3, %xmm3 vpxor %xmm2, %xmm3, %xmm2 movq 152(%rsp), %rdx movzbl 16(%rsi), %edi movzbl 17(%rsi), %r11d movzbl 23(%rsi), %ebx vpextrb $15, %xmm16, %ebp vpsrldq $8, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm0, %xmm2, %xmm1 shll $8, %edi orl %ebp, %edi shll $16, %r11d orl %edi, %r11d movzbl 18(%rsi), %edi shll $24, %edi orl %r11d, %edi vmovd %edi, %xmm0 vpinsrd $1, 19(%rsi), %xmm0, %xmm0 vpinsrd $2, %ebx, %xmm0, %xmm0 movl $16777216, %esi vpinsrd $3, %esi, %xmm0, %xmm22 testq %r8, %r8 vmovdqa %xmm6, 32(%rsp) vmovdqa %xmm1, 16(%rsp) je .LBB2_37 cmpq $96, %r8 jb .LBB2_7 vmovdqa64 %xmm22, -16(%rsp) vmovdqa %xmm7, -80(%rsp) vmovdqa %xmm10, -96(%rsp) vmovaps %xmm8, -112(%rsp) vmovaps %xmm15, %xmm24 vmovdqa64 %xmm14, %xmm23 vmovdqa64 %xmm13, %xmm22 vmovdqa64 %xmm27, %xmm21 vmovapd %xmm31, %xmm20 vmovapd %xmm12, %xmm16 vmovapd %xmm11, %xmm28 vmovdqa64 .LCPI2_13(%rip), %xmm27 movq %r8, %rsi vpbroadcastq .LCPI2_14(%rip), %xmm25 vmovdqa64 96(%rsp), %xmm31 vmovdqa 64(%rsp), %xmm6 vmovdqa64 %xmm4, %xmm26 vmovdqa64 48(%rsp), %xmm29 vmovdqa 32(%rsp), %xmm0 vmovdqa 16(%rsp), %xmm9 .p2align 4, 0x90 .LBB2_20: vmovdqu64 (%rcx), %xmm30 vmovdqu 16(%rcx), %xmm2 vmovdqu 32(%rcx), %xmm3 vmovdqu 48(%rcx), %xmm11 vmovdqu 64(%rcx), %xmm12 vmovdqu 80(%rcx), %xmm13 vpshufb %xmm27, %xmm11, %xmm11 vpshufb %xmm27, %xmm12, %xmm12 vpshufb %xmm27, %xmm13, %xmm13 vmovdqa64 %xmm26, %xmm1 vpclmulqdq $0, %xmm13, %xmm1, %xmm14 vpclmulqdq $1, %xmm13, %xmm1, %xmm15 vpclmulqdq $16, %xmm13, %xmm1, %xmm8 vpxor %xmm15, %xmm8, %xmm8 vmovdqa64 %xmm31, %xmm4 vpclmulqdq $0, %xmm12, %xmm4, %xmm15 vpclmulqdq $1, %xmm12, %xmm4, %xmm7 vpclmulqdq $16, %xmm12, %xmm4, %xmm10 vpternlogq $150, %xmm7, %xmm8, %xmm10 vpclmulqdq $0, %xmm11, %xmm6, %xmm7 vpternlogq $150, %xmm14, %xmm15, %xmm7 vpclmulqdq $1, %xmm11, %xmm6, %xmm8 vpclmulqdq $16, %xmm11, %xmm6, %xmm14 vpternlogq $150, %xmm8, %xmm10, %xmm14 vpshufb %xmm27, %xmm2, %xmm2 vpshufb %xmm27, %xmm3, %xmm3 vpclmulqdq $17, %xmm13, %xmm1, %xmm8 vpclmulqdq $17, %xmm12, %xmm4, %xmm10 vpclmulqdq $17, %xmm11, %xmm6, %xmm11 vpternlogq $150, %xmm8, %xmm10, %xmm11 vpclmulqdq $1, %xmm3, %xmm0, %xmm8 vpclmulqdq $16, %xmm3, %xmm0, %xmm10 vpternlogq $150, %xmm8, %xmm14, %xmm10 vpclmulqdq $0, %xmm3, %xmm0, %xmm8 vpclmulqdq $0, %xmm2, %xmm9, %xmm12 vpternlogq $150, %xmm8, %xmm7, %xmm12 vpclmulqdq $1, %xmm2, %xmm9, %xmm7 vpclmulqdq $16, %xmm2, %xmm9, %xmm8 vpternlogq $150, %xmm7, %xmm10, %xmm8 vpshufb %xmm27, %xmm30, %xmm1 vpxor %xmm1, %xmm5, %xmm1 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpclmulqdq $17, %xmm2, %xmm9, %xmm2 vpternlogq $150, %xmm3, %xmm11, %xmm2 vmovdqa64 %xmm29, %xmm4 vpclmulqdq $1, %xmm1, %xmm4, %xmm3 vpclmulqdq $16, %xmm1, %xmm4, %xmm7 vpternlogq $150, %xmm3, %xmm8, %xmm7 vpclmulqdq $0, %xmm1, %xmm4, %xmm3 vpslldq $8, %xmm7, %xmm5 vpternlogq $150, %xmm3, %xmm12, %xmm5 vpclmulqdq $17, %xmm1, %xmm4, %xmm1 vmovdqa64 %xmm25, %xmm4 vpclmulqdq $16, %xmm4, %xmm5, %xmm3 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm4, %xmm3, %xmm5 vpternlogq $150, %xmm1, %xmm2, %xmm5 vpsrldq $8, %xmm7, %xmm1 vpshufd $78, %xmm3, %xmm2 addq $96, %rcx addq $-96, %rsi vpternlogq $150, %xmm1, %xmm2, %xmm5 cmpq $95, %rsi ja .LBB2_20 vmovapd %xmm28, %xmm11 vmovapd %xmm16, %xmm12 vmovdqa64 %xmm19, %xmm9 vmovapd %xmm20, %xmm31 vmovdqa64 %xmm21, %xmm27 vmovdqa -128(%rsp), %xmm6 vmovdqa64 %xmm22, %xmm13 vmovdqa64 %xmm23, %xmm14 vmovaps %xmm24, %xmm15 vmovaps -112(%rsp), %xmm8 vmovdqa -96(%rsp), %xmm10 vmovdqa -80(%rsp), %xmm7 vmovdqa64 %xmm26, %xmm4 vmovdqa64 -16(%rsp), %xmm22 cmpq $16, %rsi jae .LBB2_10 .LBB2_9: movq %rsi, %rdi testq %rdi, %rdi jne .LBB2_22 jmp .LBB2_17 .LBB2_37: xorl %r8d, %r8d testq %r10, %r10 vmovdqa -128(%rsp), %xmm6 vmovdqa64 %xmm19, %xmm9 jne .LBB2_25 jmp .LBB2_38 .LBB2_7: movq %r8, %rsi vmovdqa -128(%rsp), %xmm6 vmovdqa64 %xmm19, %xmm9 cmpq $16, %rsi jb .LBB2_9 .LBB2_10: leaq -16(%rsi), %rdi testb $16, %dil je .LBB2_11 cmpq $16, %rdi jae .LBB2_13 .LBB2_16: testq %rdi, %rdi je .LBB2_17 .LBB2_22: movl $-1, %esi bzhil %edi, %esi, %esi kmovd %esi, %k1 vmovdqu8 (%rcx), %xmm0 {%k1} {z} shlq $3, %r8 testq %r10, %r10 je .LBB2_45 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rsi incq %rcx cmpq %rcx, %rsi jb .LBB2_44 vpshufb .LCPI2_13(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpclmulqdq $0, %xmm0, %xmm4, %xmm1 vpclmulqdq $1, %xmm0, %xmm4, %xmm2 vpclmulqdq $16, %xmm0, %xmm4, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm4, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpbroadcastq .LCPI2_14(%rip), %xmm5 vpclmulqdq $16, %xmm5, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm5, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm5 vpternlogq $150, %xmm2, %xmm1, %xmm5 jmp .LBB2_25 .LBB2_11: vmovdqu (%rcx), %xmm0 addq $16, %rcx vpshufb .LCPI2_13(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpclmulqdq $0, %xmm0, %xmm4, %xmm1 vpclmulqdq $1, %xmm0, %xmm4, %xmm2 vpclmulqdq $16, %xmm0, %xmm4, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm4, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpbroadcastq .LCPI2_14(%rip), %xmm5 vpclmulqdq $16, %xmm5, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm5, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm5 vpternlogq $150, %xmm2, %xmm1, %xmm5 movq %rdi, %rsi cmpq $16, %rdi jb .LBB2_16 .LBB2_13: vmovapd %xmm12, %xmm17 vmovdqa64 %xmm7, %xmm16 vmovdqa .LCPI2_13(%rip), %xmm0 vpbroadcastq .LCPI2_14(%rip), %xmm12 .p2align 4, 0x90 .LBB2_14: vmovdqu (%rcx), %xmm1 vmovdqu 16(%rcx), %xmm2 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm1 vpclmulqdq $0, %xmm1, %xmm4, %xmm3 vpclmulqdq $1, %xmm1, %xmm4, %xmm5 vpclmulqdq $16, %xmm1, %xmm4, %xmm7 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $17, %xmm1, %xmm4, %xmm1 vpslldq $8, %xmm5, %xmm7 vpxor %xmm7, %xmm3, %xmm3 vpsrldq $8, %xmm5, %xmm5 vpclmulqdq $16, %xmm12, %xmm3, %xmm7 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm7, %xmm3 vpclmulqdq $16, %xmm12, %xmm3, %xmm7 vpshufd $78, %xmm3, %xmm3 vpternlogq $150, %xmm1, %xmm5, %xmm7 addq $32, %rcx addq $-32, %rsi vpshufb %xmm0, %xmm2, %xmm1 vpternlogq $150, %xmm3, %xmm7, %xmm1 vpclmulqdq $0, %xmm1, %xmm4, %xmm2 vpclmulqdq $1, %xmm1, %xmm4, %xmm3 vpclmulqdq $16, %xmm1, %xmm4, %xmm5 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $17, %xmm1, %xmm4, %xmm1 vpslldq $8, %xmm3, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpclmulqdq $16, %xmm12, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm12, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm1, %xmm5, %xmm5 vpternlogq $150, %xmm3, %xmm2, %xmm5 cmpq $15, %rsi ja .LBB2_14 movq %rsi, %rdi vmovdqa64 %xmm16, %xmm7 vmovapd %xmm17, %xmm12 testq %rdi, %rdi jne .LBB2_22 .LBB2_17: shlq $3, %r8 testq %r10, %r10 je .LBB2_38 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rsi incq %rcx cmpq %rcx, %rsi jb .LBB2_44 .LBB2_25: vmovaps %xmm8, -112(%rsp) vmovdqa %xmm14, -64(%rsp) movq 168(%rsp), %rax vpshufb .LCPI2_15(%rip), %xmm22, %xmm0 vpaddd .LCPI2_16(%rip), %xmm0, %xmm17 cmpq $96, %r10 jb .LBB2_26 vmovdqa64 %xmm22, -16(%rsp) vmovdqa64 .LCPI2_13(%rip), %xmm18 movq %r10, %rcx vmovdqa %xmm9, 80(%rsp) vmovapd %xmm31, -96(%rsp) vmovdqa64 %xmm27, -80(%rsp) vmovdqa64 %xmm13, %xmm24 vmovdqa64 %xmm15, %xmm25 vmovdqa64 %xmm10, %xmm22 vmovdqa %xmm7, %xmm9 vmovdqa64 64(%rsp), %xmm19 vmovdqa64 48(%rsp), %xmm23 vmovaps 32(%rsp), %xmm20 vmovaps 16(%rsp), %xmm21 .p2align 4, 0x90 .LBB2_30: vmovdqu64 16(%r9), %xmm26 vmovdqu64 32(%r9), %xmm27 vmovdqu64 48(%r9), %xmm28 vmovdqu64 64(%r9), %xmm29 vmovdqu64 80(%r9), %xmm30 vpshufb %xmm18, %xmm17, %xmm0 vpaddd .LCPI2_16(%rip), %xmm17, %xmm1 vpshufb %xmm18, %xmm1, %xmm1 vpaddd .LCPI2_17(%rip), %xmm17, %xmm2 vpshufb %xmm18, %xmm2, %xmm3 vpaddd .LCPI2_18(%rip), %xmm17, %xmm2 vpshufb %xmm18, %xmm2, %xmm7 vpaddd .LCPI2_19(%rip), %xmm17, %xmm2 vpshufb %xmm18, %xmm2, %xmm8 vpaddd .LCPI2_20(%rip), %xmm17, %xmm2 vpshufb %xmm18, %xmm2, %xmm10 vpshufb %xmm18, %xmm30, %xmm6 vpxor %xmm0, %xmm11, %xmm2 vpxor %xmm1, %xmm11, %xmm14 vpxor %xmm3, %xmm11, %xmm3 vpxor %xmm7, %xmm11, %xmm13 vpxor %xmm8, %xmm11, %xmm1 vmovapd %xmm11, %xmm31 vpxor %xmm10, %xmm11, %xmm11 #APP vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm14, %xmm14 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm13, %xmm13 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm12, %xmm11, %xmm11 #NO_APP vxorps %xmm15, %xmm15, %xmm15 vpxor %xmm0, %xmm0, %xmm0 vmovapd %xmm12, %xmm16 vxorpd %xmm12, %xmm12, %xmm12 vmovaps -48(%rsp), %xmm8 #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm11, %xmm11 vpclmulqdq $16, %xmm4, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $0, %xmm4, %xmm6, %xmm7 vpxor %xmm7, %xmm15, %xmm15 vpclmulqdq $17, %xmm4, %xmm6, %xmm7 vpxor %xmm7, %xmm12, %xmm12 vpclmulqdq $1, %xmm4, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 #NO_APP vpshufb %xmm18, %xmm29, %xmm6 vmovaps -32(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 #NO_APP vmovaps 80(%rsp), %xmm8 vmovaps 96(%rsp), %xmm10 #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm11, %xmm11 vpclmulqdq $16, %xmm10, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $0, %xmm10, %xmm6, %xmm7 vpxor %xmm7, %xmm15, %xmm15 vpclmulqdq $17, %xmm10, %xmm6, %xmm7 vpxor %xmm7, %xmm12, %xmm12 vpclmulqdq $1, %xmm10, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 #NO_APP vpshufb %xmm18, %xmm28, %xmm6 vmovaps -96(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 #NO_APP vmovaps -80(%rsp), %xmm8 vmovdqa64 %xmm19, %xmm10 #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm11, %xmm11 vpclmulqdq $16, %xmm10, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $0, %xmm10, %xmm6, %xmm7 vpxor %xmm7, %xmm15, %xmm15 vpclmulqdq $17, %xmm10, %xmm6, %xmm7 vpxor %xmm7, %xmm12, %xmm12 vpclmulqdq $1, %xmm10, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 #NO_APP vpshufb %xmm18, %xmm27, %xmm6 vmovaps (%rsp), %xmm7 #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 #NO_APP vmovaps -128(%rsp), %xmm8 vmovaps %xmm20, %xmm10 #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm11, %xmm11 vpclmulqdq $16, %xmm10, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $0, %xmm10, %xmm6, %xmm7 vpxor %xmm7, %xmm15, %xmm15 vpclmulqdq $17, %xmm10, %xmm6, %xmm7 vpxor %xmm7, %xmm12, %xmm12 vpclmulqdq $1, %xmm10, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 #NO_APP vpshufb %xmm18, %xmm26, %xmm6 vmovdqa64 %xmm24, %xmm7 #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 #NO_APP vmovaps -64(%rsp), %xmm8 vmovaps %xmm21, %xmm10 #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm11, %xmm11 vpclmulqdq $16, %xmm10, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $0, %xmm10, %xmm6, %xmm7 vpxor %xmm7, %xmm15, %xmm15 vpclmulqdq $17, %xmm10, %xmm6, %xmm7 vpxor %xmm7, %xmm12, %xmm12 vpclmulqdq $1, %xmm10, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 #NO_APP vmovdqu (%r9), %xmm6 vpshufb %xmm18, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vmovdqa64 %xmm25, %xmm7 #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 #NO_APP vmovdqa64 %xmm23, %xmm10 vmovaps -112(%rsp), %xmm8 #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm11, %xmm11 vpclmulqdq $16, %xmm10, %xmm5, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $0, %xmm10, %xmm5, %xmm7 vpxor %xmm7, %xmm15, %xmm15 vpclmulqdq $17, %xmm10, %xmm5, %xmm7 vpxor %xmm7, %xmm12, %xmm12 vpclmulqdq $1, %xmm10, %xmm5, %xmm7 vpxor %xmm7, %xmm0, %xmm0 #NO_APP vpxor %xmm7, %xmm7, %xmm7 vpunpcklqdq %xmm0, %xmm7, %xmm5 vpunpckhqdq %xmm7, %xmm0, %xmm0 vmovdqa64 %xmm22, %xmm7 #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 #NO_APP #APP vaesenclast %xmm9, %xmm2, %xmm2 vaesenclast %xmm9, %xmm14, %xmm14 vaesenclast %xmm9, %xmm3, %xmm3 vaesenclast %xmm9, %xmm13, %xmm13 vaesenclast %xmm9, %xmm1, %xmm1 vaesenclast %xmm9, %xmm11, %xmm11 #NO_APP vpxor %xmm6, %xmm2, %xmm2 vpxorq %xmm26, %xmm14, %xmm6 vpxorq %xmm27, %xmm3, %xmm3 vpxorq %xmm28, %xmm13, %xmm7 vpxorq %xmm29, %xmm1, %xmm1 vpxorq %xmm30, %xmm11, %xmm8 vmovapd %xmm31, %xmm11 vpxor %xmm5, %xmm15, %xmm5 vpshufd $78, %xmm5, %xmm10 vpbroadcastq .LCPI2_14(%rip), %xmm13 vpclmulqdq $16, %xmm13, %xmm5, %xmm5 vpxor %xmm5, %xmm10, %xmm10 vpxor %xmm0, %xmm12, %xmm5 vmovapd %xmm16, %xmm12 vmovdqu %xmm2, (%rax) vmovdqu %xmm6, 16(%rax) vmovdqu %xmm3, 32(%rax) vmovdqu %xmm7, 48(%rax) vmovdqu %xmm1, 64(%rax) vmovdqu %xmm8, 80(%rax) vpshufd $78, %xmm10, %xmm0 vpclmulqdq $16, %xmm13, %xmm10, %xmm1 vpternlogq $150, %xmm1, %xmm0, %xmm5 addq $96, %r9 addq $96, %rax addq $-96, %rcx vpaddd .LCPI2_21(%rip), %xmm17, %xmm17 cmpq $95, %rcx ja .LBB2_30 vmovdqa64 %xmm22, %xmm1 vmovdqa64 %xmm25, %xmm8 vmovdqa64 %xmm24, %xmm14 vmovdqa64 80(%rsp), %xmm20 vmovapd -96(%rsp), %xmm31 vmovdqa64 -80(%rsp), %xmm27 vmovdqa64 -16(%rsp), %xmm22 vmovapd %xmm12, %xmm18 cmpq $16, %rcx vmovdqa64 (%rsp), %xmm21 jae .LBB2_32 .LBB2_28: movq %rax, %rsi jmp .LBB2_34 .LBB2_26: vmovdqa64 %xmm9, %xmm20 vmovdqa %xmm7, %xmm9 vmovdqa %xmm10, %xmm1 vmovdqa %xmm15, %xmm8 vmovdqa %xmm13, %xmm14 movq %r10, %rcx vmovapd %xmm12, %xmm18 cmpq $16, %rcx vmovdqa64 (%rsp), %xmm21 jb .LBB2_28 .LBB2_32: vmovdqa64 .LCPI2_13(%rip), %xmm19 vpmovsxbq .LCPI2_24(%rip), %xmm16 vmovdqa64 -128(%rsp), %xmm23 vmovdqa64 -64(%rsp), %xmm24 vmovdqa64 -112(%rsp), %xmm25 vpbroadcastq .LCPI2_14(%rip), %xmm26 vmovapd %xmm18, %xmm29 vmovdqa64 -48(%rsp), %xmm28 vmovdqa64 -32(%rsp), %xmm30 vmovdqa64 %xmm20, %xmm15 vmovapd %xmm31, %xmm12 vmovdqa64 %xmm27, %xmm0 vmovdqa64 %xmm21, %xmm13 .p2align 4, 0x90 .LBB2_33: vmovdqu (%r9), %xmm2 vpshufb %xmm19, %xmm2, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $1, %xmm3, %xmm4, %xmm5 vpclmulqdq $16, %xmm3, %xmm4, %xmm6 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm4, %xmm5 vpclmulqdq $17, %xmm3, %xmm4, %xmm3 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpshufd $78, %xmm5, %xmm7 vmovdqa64 %xmm26, %xmm10 vpclmulqdq $16, %xmm10, %xmm5, %xmm5 vpxor %xmm7, %xmm5, %xmm5 vpshufd $78, %xmm5, %xmm7 vpclmulqdq $16, %xmm10, %xmm5, %xmm5 vpxor %xmm3, %xmm5, %xmm5 vpshufb %xmm19, %xmm17, %xmm3 vpxor %xmm3, %xmm11, %xmm3 vmovapd %xmm29, %xmm10 vaesenc %xmm10, %xmm3, %xmm3 vmovdqa64 %xmm28, %xmm10 vaesenc %xmm10, %xmm3, %xmm3 vmovdqa64 %xmm30, %xmm10 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm15, %xmm3, %xmm3 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm13, %xmm3, %xmm3 vmovdqa64 %xmm23, %xmm10 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm14, %xmm3, %xmm3 vmovdqa64 %xmm24, %xmm10 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm8, %xmm3, %xmm3 vmovdqa64 %xmm25, %xmm10 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm1, %xmm3, %xmm3 vaesenclast %xmm9, %xmm3, %xmm3 vpxor %xmm2, %xmm3, %xmm2 leaq 16(%rax), %rsi addq $-16, %rcx addq $16, %r9 vpsrldq $8, %xmm6, %xmm3 vpternlogq $150, %xmm3, %xmm7, %xmm5 vpaddd %xmm16, %xmm17, %xmm17 vmovdqu %xmm2, (%rax) movq %rsi, %rax cmpq $15, %rcx ja .LBB2_33 .LBB2_34: vmovdqa %xmm1, %xmm10 testq %rcx, %rcx je .LBB2_39 movl $-1, %eax bzhil %ecx, %eax, %eax kmovd %eax, %k1 vmovdqu8 (%r9), %xmm1 {%k1} {z} vpshufb .LCPI2_13(%rip), %xmm17, %xmm0 vpxor %xmm0, %xmm11, %xmm0 vmovapd %xmm18, %xmm12 vaesenc %xmm12, %xmm0, %xmm0 vaesenc -48(%rsp), %xmm0, %xmm0 vaesenc -32(%rsp), %xmm0, %xmm0 vmovdqa64 %xmm20, %xmm2 vaesenc %xmm2, %xmm0, %xmm0 vmovapd %xmm31, %xmm2 vaesenc %xmm2, %xmm0, %xmm0 vmovdqa64 %xmm27, %xmm2 vaesenc %xmm2, %xmm0, %xmm0 vmovdqa64 %xmm21, %xmm2 vaesenc %xmm2, %xmm0, %xmm0 vmovdqa -128(%rsp), %xmm2 vmovdqa64 %xmm2, %xmm16 vaesenc %xmm2, %xmm0, %xmm0 vmovdqa %xmm14, %xmm13 vaesenc %xmm14, %xmm0, %xmm0 vmovdqa -64(%rsp), %xmm14 vaesenc %xmm14, %xmm0, %xmm0 vmovdqa %xmm8, %xmm15 vaesenc %xmm8, %xmm0, %xmm0 vmovdqa -112(%rsp), %xmm8 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm10, %xmm0, %xmm0 vmovdqa %xmm9, %xmm7 vaesenclast %xmm9, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm2 vmovdqu8 %xmm2, (%rsi) {%k1} vmovdqu (%rdx), %xmm0 testq %r10, %r10 vpbroadcastq .LCPI2_14(%rip), %xmm9 je .LBB2_36 vpshufb .LCPI2_13(%rip), %xmm1, %xmm1 jmp .LBB2_41 .LBB2_39: vmovdqu (%rdx), %xmm0 vmovdqa64 -128(%rsp), %xmm16 vmovdqa %xmm14, %xmm13 vmovdqa -64(%rsp), %xmm14 vmovdqa %xmm8, %xmm15 vmovdqa -112(%rsp), %xmm8 vmovdqa %xmm9, %xmm7 vpbroadcastq .LCPI2_14(%rip), %xmm9 vmovapd %xmm18, %xmm12 jmp .LBB2_42 .LBB2_45: vpshufb .LCPI2_13(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpclmulqdq $0, %xmm0, %xmm4, %xmm1 vpclmulqdq $1, %xmm0, %xmm4, %xmm2 vpclmulqdq $16, %xmm0, %xmm4, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm4, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpbroadcastq .LCPI2_14(%rip), %xmm5 vpclmulqdq $16, %xmm5, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm5, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm5 vpternlogq $150, %xmm2, %xmm1, %xmm5 .LBB2_38: vmovdqa64 %xmm6, %xmm16 vmovdqa64 %xmm9, %xmm20 vmovdqu (%rdx), %xmm0 vmovdqa (%rsp), %xmm6 vpbroadcastq .LCPI2_14(%rip), %xmm9 jmp .LBB2_43 .LBB2_36: vpshufb .LCPI2_13(%rip), %xmm2, %xmm1 .LBB2_41: vpxor %xmm1, %xmm5, %xmm1 vpclmulqdq $0, %xmm1, %xmm4, %xmm2 vpclmulqdq $1, %xmm1, %xmm4, %xmm3 vpclmulqdq $16, %xmm1, %xmm4, %xmm5 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $17, %xmm1, %xmm4, %xmm1 vpslldq $8, %xmm3, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpclmulqdq $16, %xmm9, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm9, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm1, %xmm5, %xmm5 vpternlogq $150, %xmm3, %xmm2, %xmm5 .LBB2_42: vmovdqa64 %xmm21, %xmm6 .LBB2_43: shlq $3, %r10 vmovq %r8, %xmm1 vmovq %r10, %xmm2 vpunpcklqdq %xmm1, %xmm2, %xmm1 vpxor %xmm5, %xmm1, %xmm1 vpclmulqdq $1, %xmm1, %xmm4, %xmm2 vpclmulqdq $16, %xmm1, %xmm4, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $0, %xmm1, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm4, %xmm1 vpslldq $8, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpshufd $78, %xmm3, %xmm4 vpclmulqdq $16, %xmm9, %xmm3, %xmm3 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm9, %xmm3, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpxorq %xmm22, %xmm11, %xmm4 vaesenc %xmm12, %xmm4, %xmm4 vaesenc -48(%rsp), %xmm4, %xmm4 vaesenc -32(%rsp), %xmm4, %xmm4 vmovdqa64 %xmm20, %xmm5 vaesenc %xmm5, %xmm4, %xmm4 vmovapd %xmm31, %xmm5 vaesenc %xmm5, %xmm4, %xmm4 vmovdqa64 %xmm27, %xmm5 vaesenc %xmm5, %xmm4, %xmm4 vaesenc %xmm6, %xmm4, %xmm4 vmovdqa64 %xmm16, %xmm5 vaesenc %xmm5, %xmm4, %xmm4 vaesenc %xmm13, %xmm4, %xmm4 vaesenc %xmm14, %xmm4, %xmm4 vaesenc %xmm15, %xmm4, %xmm4 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm10, %xmm4, %xmm4 vaesenclast %xmm7, %xmm4, %xmm4 vpshufb .LCPI2_22(%rip), %xmm3, %xmm3 vpshufb .LCPI2_13(%rip), %xmm1, %xmm1 vpshufb .LCPI2_23(%rip), %xmm2, %xmm2 vpternlogq $150, %xmm1, %xmm3, %xmm2 vpternlogq $150, %xmm4, %xmm0, %xmm2 xorl %eax, %eax vptest %xmm2, %xmm2 sete %al .LBB2_44: addq $120, %rsp .cfi_def_cfa_offset 24 popq %rbx .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end2: .size haberdashery_aes256gcmdndkv2_skylakex_decrypt, .Lfunc_end2-haberdashery_aes256gcmdndkv2_skylakex_decrypt .cfi_endproc .section .text.haberdashery_aes256gcmdndkv2_skylakex_is_supported,"ax",@progbits .globl haberdashery_aes256gcmdndkv2_skylakex_is_supported .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2_skylakex_is_supported,@function haberdashery_aes256gcmdndkv2_skylakex_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $-779157207, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end3: .size haberdashery_aes256gcmdndkv2_skylakex_is_supported, .Lfunc_end3-haberdashery_aes256gcmdndkv2_skylakex_is_supported .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
75,622
asm/aes256gcmsiv_skylakex.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_1: .quad 4294967297 .LCPI0_2: .quad 8589934594 .LCPI0_3: .quad 17179869188 .LCPI0_4: .quad 34359738376 .LCPI0_5: .quad 68719476752 .LCPI0_6: .quad 137438953504 .LCPI0_7: .quad 274877907008 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI0_8: .byte 13 .byte 14 .byte 15 .byte 12 .section .text.haberdashery_aes256gcmsiv_skylakex_init,"ax",@progbits .globl haberdashery_aes256gcmsiv_skylakex_init .p2align 4, 0x90 .type haberdashery_aes256gcmsiv_skylakex_init,@function haberdashery_aes256gcmsiv_skylakex_init: .cfi_startproc cmpq $32, %rdx jne .LBB0_2 vmovupd (%rsi), %xmm0 vmovdqu 16(%rsi), %xmm1 vpslldq $4, %xmm0, %xmm2 vpslldq $8, %xmm0, %xmm3 vpslldq $12, %xmm0, %xmm4 vpternlogq $150, %xmm3, %xmm2, %xmm4 vpbroadcastd .LCPI0_8(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm2 vpbroadcastq .LCPI0_1(%rip), %xmm5 vaesenclast %xmm5, %xmm2, %xmm2 vpternlogq $150, %xmm4, %xmm0, %xmm2 vpslldq $4, %xmm1, %xmm4 vpslldq $8, %xmm1, %xmm5 vpslldq $12, %xmm1, %xmm7 vpternlogq $150, %xmm5, %xmm4, %xmm7 vpshufd $255, %xmm2, %xmm4 vpxor %xmm6, %xmm6, %xmm6 vaesenclast %xmm6, %xmm4, %xmm4 vpternlogq $150, %xmm7, %xmm1, %xmm4 vpslldq $4, %xmm2, %xmm5 vpslldq $8, %xmm2, %xmm7 vpslldq $12, %xmm2, %xmm8 vpternlogq $150, %xmm7, %xmm5, %xmm8 vpshufb %xmm3, %xmm4, %xmm5 vpbroadcastq .LCPI0_2(%rip), %xmm7 vaesenclast %xmm7, %xmm5, %xmm5 vpternlogq $150, %xmm8, %xmm2, %xmm5 vpslldq $4, %xmm4, %xmm7 vpslldq $8, %xmm4, %xmm8 vpslldq $12, %xmm4, %xmm9 vpternlogq $150, %xmm8, %xmm7, %xmm9 vpshufd $255, %xmm5, %xmm7 vaesenclast %xmm6, %xmm7, %xmm7 vpternlogq $150, %xmm9, %xmm4, %xmm7 vpslldq $4, %xmm5, %xmm8 vpslldq $8, %xmm5, %xmm9 vpslldq $12, %xmm5, %xmm10 vpternlogq $150, %xmm9, %xmm8, %xmm10 vpshufb %xmm3, %xmm7, %xmm8 vpbroadcastq .LCPI0_3(%rip), %xmm9 vaesenclast %xmm9, %xmm8, %xmm8 vpternlogq $150, %xmm10, %xmm5, %xmm8 vpslldq $4, %xmm7, %xmm9 vpslldq $8, %xmm7, %xmm10 vpslldq $12, %xmm7, %xmm11 vpternlogq $150, %xmm10, %xmm9, %xmm11 vpshufd $255, %xmm8, %xmm9 vaesenclast %xmm6, %xmm9, %xmm9 vpternlogq $150, %xmm11, %xmm7, %xmm9 vpslldq $4, %xmm8, %xmm10 vpslldq $8, %xmm8, %xmm11 vpslldq $12, %xmm8, %xmm12 vpternlogq $150, %xmm11, %xmm10, %xmm12 vpshufb %xmm3, %xmm9, %xmm10 vpbroadcastq .LCPI0_4(%rip), %xmm11 vaesenclast %xmm11, %xmm10, %xmm10 vpternlogq $150, %xmm12, %xmm8, %xmm10 vpslldq $4, %xmm9, %xmm11 vpslldq $8, %xmm9, %xmm12 vpslldq $12, %xmm9, %xmm13 vpternlogq $150, %xmm12, %xmm11, %xmm13 vpshufd $255, %xmm10, %xmm11 vaesenclast %xmm6, %xmm11, %xmm11 vpternlogq $150, %xmm13, %xmm9, %xmm11 vpslldq $4, %xmm10, %xmm12 vpslldq $8, %xmm10, %xmm13 vpslldq $12, %xmm10, %xmm14 vpternlogq $150, %xmm13, %xmm12, %xmm14 vpshufb %xmm3, %xmm11, %xmm12 vpbroadcastq .LCPI0_5(%rip), %xmm13 vaesenclast %xmm13, %xmm12, %xmm12 vpternlogq $150, %xmm14, %xmm10, %xmm12 vpslldq $4, %xmm11, %xmm13 vpslldq $8, %xmm11, %xmm14 vpslldq $12, %xmm11, %xmm15 vpternlogq $150, %xmm14, %xmm13, %xmm15 vpshufd $255, %xmm12, %xmm13 vaesenclast %xmm6, %xmm13, %xmm13 vpternlogq $150, %xmm15, %xmm11, %xmm13 vpslldq $4, %xmm12, %xmm14 vpslldq $8, %xmm12, %xmm15 vpslldq $12, %xmm12, %xmm16 vpternlogq $150, %xmm15, %xmm14, %xmm16 vpshufb %xmm3, %xmm13, %xmm14 vpbroadcastq .LCPI0_6(%rip), %xmm15 vaesenclast %xmm15, %xmm14, %xmm14 vpternlogq $150, %xmm16, %xmm12, %xmm14 vpslldq $4, %xmm13, %xmm15 vpslldq $8, %xmm13, %xmm16 vpslldq $12, %xmm13, %xmm17 vpternlogq $150, %xmm16, %xmm15, %xmm17 vpshufd $255, %xmm14, %xmm15 vaesenclast %xmm6, %xmm15, %xmm6 vpternlogq $150, %xmm17, %xmm13, %xmm6 vpslldq $4, %xmm14, %xmm15 vpslldq $8, %xmm14, %xmm16 vpslldq $12, %xmm14, %xmm17 vpternlogq $150, %xmm16, %xmm15, %xmm17 vpshufb %xmm3, %xmm6, %xmm3 vpbroadcastq .LCPI0_7(%rip), %xmm15 vaesenclast %xmm15, %xmm3, %xmm3 vpternlogq $150, %xmm17, %xmm14, %xmm3 vmovdqa %xmm0, (%rdi) vmovdqa %xmm1, 16(%rdi) vmovdqa %xmm2, 32(%rdi) vmovdqa %xmm4, 48(%rdi) vmovdqa %xmm5, 64(%rdi) vmovdqa %xmm7, 80(%rdi) vmovdqa %xmm8, 96(%rdi) vmovdqa %xmm9, 112(%rdi) vmovdqa %xmm10, 128(%rdi) vmovdqa %xmm11, 144(%rdi) vmovdqa %xmm12, 160(%rdi) vmovdqa %xmm13, 176(%rdi) vmovdqa %xmm14, 192(%rdi) vmovdqa %xmm6, 208(%rdi) vmovdqa %xmm3, 224(%rdi) .LBB0_2: xorl %eax, %eax cmpq $32, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes256gcmsiv_skylakex_init, .Lfunc_end0-haberdashery_aes256gcmsiv_skylakex_init .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI1_0: .long 1 .long 0 .long 0 .long 0 .LCPI1_1: .long 2 .long 0 .long 0 .long 0 .LCPI1_2: .long 3 .long 0 .long 0 .long 0 .LCPI1_3: .quad 4 .quad 0 .LCPI1_4: .long 5 .long 0 .long 0 .long 0 .LCPI1_5: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI1_14: .quad -1 .quad 9223372036854775807 .LCPI1_15: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 128 .LCPI1_16: .long 6 .long 0 .long 0 .long 0 .LCPI1_17: .long 7 .long 0 .long 0 .long 0 .LCPI1_18: .long 8 .long 0 .long 0 .long 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI1_6: .quad 4294967297 .LCPI1_7: .quad 8589934594 .LCPI1_8: .quad 17179869188 .LCPI1_9: .quad 34359738376 .LCPI1_10: .quad 68719476752 .LCPI1_11: .quad 137438953504 .LCPI1_12: .quad 274877907008 .LCPI1_13: .quad -4467570830351532032 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI1_19: .byte 13 .byte 14 .byte 15 .byte 12 .section .rodata,"a",@progbits .LCPI1_20: .byte 2 .byte 0 .LCPI1_21: .byte 3 .byte 0 .LCPI1_22: .byte 4 .byte 0 .LCPI1_23: .byte 5 .byte 0 .LCPI1_24: .byte 6 .byte 0 .LCPI1_25: .byte 7 .byte 0 .LCPI1_26: .byte 8 .byte 0 .section .text.haberdashery_aes256gcmsiv_skylakex_encrypt,"ax",@progbits .globl haberdashery_aes256gcmsiv_skylakex_encrypt .p2align 4, 0x90 .type haberdashery_aes256gcmsiv_skylakex_encrypt,@function haberdashery_aes256gcmsiv_skylakex_encrypt: .cfi_startproc pushq %rbx .cfi_def_cfa_offset 16 subq $48, %rsp .cfi_def_cfa_offset 64 .cfi_offset %rbx, -16 movq 64(%rsp), %r10 xorl %eax, %eax cmpq 80(%rsp), %r10 jne .LBB1_46 movabsq $68719476737, %rax cmpq %rax, %r8 setb %r11b cmpq %rax, %r10 setb %bl andb %r11b, %bl cmpq $16, 96(%rsp) sete %r11b cmpq $12, %rdx sete %al andb %r11b, %al andb %bl, %al cmpb $1, %al jne .LBB1_45 vmovsd 4(%rsi), %xmm0 vmovss (%rsi), %xmm1 vshufps $65, %xmm0, %xmm1, %xmm0 vxorps (%rdi), %xmm0, %xmm0 vxorps .LCPI1_0(%rip), %xmm0, %xmm3 vxorps .LCPI1_1(%rip), %xmm0, %xmm2 vxorps .LCPI1_2(%rip), %xmm0, %xmm4 vxorps .LCPI1_3(%rip), %xmm0, %xmm1 vxorps .LCPI1_4(%rip), %xmm0, %xmm5 vmovaps 16(%rdi), %xmm7 vmovaps 32(%rdi), %xmm8 vmovaps 48(%rdi), %xmm9 vmovaps 64(%rdi), %xmm6 #APP vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 80(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 96(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 112(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 128(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 144(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 160(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 176(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 192(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 208(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 224(%rdi), %xmm6 #APP vaesenclast %xmm6, %xmm0, %xmm0 vaesenclast %xmm6, %xmm3, %xmm3 vaesenclast %xmm6, %xmm2, %xmm2 vaesenclast %xmm6, %xmm4, %xmm4 vaesenclast %xmm6, %xmm1, %xmm1 vaesenclast %xmm6, %xmm5, %xmm5 #NO_APP vpunpcklqdq %xmm3, %xmm0, %xmm14 vunpcklpd %xmm4, %xmm2, %xmm24 vunpcklpd %xmm5, %xmm1, %xmm0 vpslldq $4, %xmm24, %xmm3 vxorpd %xmm5, %xmm5, %xmm5 vunpcklpd %xmm2, %xmm5, %xmm4 vinsertps $55, %xmm2, %xmm0, %xmm2 vpternlogq $150, %xmm4, %xmm3, %xmm2 vpbroadcastd .LCPI1_19(%rip), %xmm16 vpshufb %xmm16, %xmm0, %xmm3 vpbroadcastq .LCPI1_6(%rip), %xmm4 vaesenclast %xmm4, %xmm3, %xmm4 vpternlogq $150, %xmm2, %xmm24, %xmm4 vpslldq $4, %xmm0, %xmm2 vunpcklpd %xmm1, %xmm5, %xmm3 vinsertps $55, %xmm1, %xmm0, %xmm1 vpternlogq $150, %xmm3, %xmm2, %xmm1 vpshufd $255, %xmm4, %xmm2 vaesenclast %xmm5, %xmm2, %xmm15 vmovaps %xmm0, -96(%rsp) vpternlogq $150, %xmm1, %xmm0, %xmm15 vpslldq $4, %xmm4, %xmm1 vpslldq $8, %xmm4, %xmm2 vpslldq $12, %xmm4, %xmm3 vpternlogq $150, %xmm2, %xmm1, %xmm3 vpshufb %xmm16, %xmm15, %xmm1 vpbroadcastq .LCPI1_7(%rip), %xmm2 vaesenclast %xmm2, %xmm1, %xmm0 vmovaps %xmm4, -80(%rsp) vpternlogq $150, %xmm3, %xmm4, %xmm0 vpslldq $4, %xmm15, %xmm1 vpslldq $8, %xmm15, %xmm2 vpslldq $12, %xmm15, %xmm6 vpternlogq $150, %xmm2, %xmm1, %xmm6 vpclmulqdq $0, %xmm14, %xmm14, %xmm1 vpbroadcastq .LCPI1_13(%rip), %xmm12 vpclmulqdq $16, %xmm12, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm12, %xmm1, %xmm2 vpclmulqdq $17, %xmm14, %xmm14, %xmm3 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm2, %xmm3, %xmm1 vpclmulqdq $0, %xmm1, %xmm1, %xmm2 vpclmulqdq $16, %xmm12, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm12, %xmm2, %xmm3 vpclmulqdq $17, %xmm1, %xmm1, %xmm4 vpshufd $78, %xmm2, %xmm2 vpternlogq $150, %xmm3, %xmm4, %xmm2 vpclmulqdq $0, %xmm2, %xmm2, %xmm3 vpclmulqdq $16, %xmm12, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm12, %xmm3, %xmm4 vpclmulqdq $17, %xmm2, %xmm2, %xmm5 vpshufd $78, %xmm3, %xmm7 vmovdqa %xmm1, %xmm3 vpternlogq $150, %xmm4, %xmm5, %xmm7 vmovdqa %xmm7, -128(%rsp) vpclmulqdq $0, %xmm14, %xmm1, %xmm4 vpclmulqdq $16, %xmm14, %xmm1, %xmm5 vpclmulqdq $1, %xmm14, %xmm1, %xmm7 vpxor %xmm5, %xmm7, %xmm5 vpslldq $8, %xmm5, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $16, %xmm12, %xmm4, %xmm7 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpclmulqdq $16, %xmm12, %xmm4, %xmm7 vpclmulqdq $17, %xmm14, %xmm1, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpsrldq $8, %xmm5, %xmm5 vpshufd $78, %xmm4, %xmm1 vmovdqa %xmm2, %xmm4 vpternlogq $150, %xmm5, %xmm7, %xmm1 vpclmulqdq $0, %xmm1, %xmm1, %xmm5 vpclmulqdq $16, %xmm12, %xmm5, %xmm7 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $16, %xmm12, %xmm5, %xmm7 vmovdqa %xmm1, -112(%rsp) vpclmulqdq $17, %xmm1, %xmm1, %xmm8 vpshufd $78, %xmm5, %xmm5 vpternlogq $150, %xmm7, %xmm8, %xmm5 vpclmulqdq $0, %xmm14, %xmm5, %xmm8 vpclmulqdq $16, %xmm14, %xmm5, %xmm7 vpclmulqdq $1, %xmm14, %xmm5, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpslldq $8, %xmm7, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpclmulqdq $16, %xmm12, %xmm8, %xmm9 vpshufd $78, %xmm8, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $16, %xmm12, %xmm8, %xmm9 vpclmulqdq $17, %xmm14, %xmm5, %xmm10 vpxorq %xmm9, %xmm10, %xmm27 vpclmulqdq $0, %xmm14, %xmm2, %xmm10 vpclmulqdq $16, %xmm14, %xmm2, %xmm9 vpclmulqdq $1, %xmm14, %xmm2, %xmm11 vpxor %xmm9, %xmm11, %xmm9 vpslldq $8, %xmm9, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpclmulqdq $16, %xmm12, %xmm10, %xmm11 vpshufd $78, %xmm10, %xmm10 vpxor %xmm10, %xmm11, %xmm10 vpclmulqdq $16, %xmm12, %xmm10, %xmm11 vpclmulqdq $17, %xmm14, %xmm2, %xmm12 vpxorq %xmm11, %xmm12, %xmm20 vpshufd $255, %xmm0, %xmm11 vpxor %xmm13, %xmm13, %xmm13 vaesenclast %xmm13, %xmm11, %xmm1 vmovdqa64 %xmm15, %xmm23 vpternlogq $150, %xmm6, %xmm15, %xmm1 vpbroadcastq .LCPI1_8(%rip), %xmm6 vpshufb %xmm16, %xmm1, %xmm11 vaesenclast %xmm6, %xmm11, %xmm2 vpslldq $4, %xmm0, %xmm6 vpslldq $8, %xmm0, %xmm11 vpslldq $12, %xmm0, %xmm12 vpternlogq $150, %xmm11, %xmm6, %xmm12 vmovapd %xmm0, %xmm25 vpternlogq $150, %xmm12, %xmm0, %xmm2 vpslldq $4, %xmm1, %xmm6 vpslldq $8, %xmm1, %xmm11 vpslldq $12, %xmm1, %xmm12 vpternlogq $150, %xmm11, %xmm6, %xmm12 vpshufd $255, %xmm2, %xmm6 vaesenclast %xmm13, %xmm6, %xmm0 vmovaps %xmm1, 32(%rsp) vpternlogq $150, %xmm12, %xmm1, %xmm0 vpshufb %xmm16, %xmm0, %xmm6 vpbroadcastq .LCPI1_9(%rip), %xmm11 vaesenclast %xmm11, %xmm6, %xmm1 vpslldq $4, %xmm2, %xmm6 vpslldq $8, %xmm2, %xmm11 vpslldq $12, %xmm2, %xmm12 vpternlogq $150, %xmm11, %xmm6, %xmm12 vmovaps %xmm2, 16(%rsp) vpternlogq $150, %xmm12, %xmm2, %xmm1 vpslldq $4, %xmm0, %xmm6 vpslldq $8, %xmm0, %xmm11 vpslldq $12, %xmm0, %xmm12 vpternlogq $150, %xmm11, %xmm6, %xmm12 vpshufd $255, %xmm1, %xmm6 vaesenclast %xmm13, %xmm6, %xmm2 vmovaps %xmm0, (%rsp) vpternlogq $150, %xmm12, %xmm0, %xmm2 vpshufb %xmm16, %xmm2, %xmm6 vpbroadcastq .LCPI1_10(%rip), %xmm11 vaesenclast %xmm11, %xmm6, %xmm0 vpslldq $4, %xmm1, %xmm6 vpslldq $8, %xmm1, %xmm11 vpslldq $12, %xmm1, %xmm12 vpternlogq $150, %xmm11, %xmm6, %xmm12 vmovaps %xmm1, -16(%rsp) vpternlogq $150, %xmm12, %xmm1, %xmm0 vpslldq $4, %xmm2, %xmm6 vpslldq $8, %xmm2, %xmm11 vpslldq $12, %xmm2, %xmm12 vpternlogq $150, %xmm11, %xmm6, %xmm12 vpshufd $255, %xmm0, %xmm6 vaesenclast %xmm13, %xmm6, %xmm1 vmovaps %xmm2, -32(%rsp) vpternlogq $150, %xmm12, %xmm2, %xmm1 vpbroadcastq .LCPI1_11(%rip), %xmm6 vpshufb %xmm16, %xmm1, %xmm12 vaesenclast %xmm6, %xmm12, %xmm2 vpslldq $4, %xmm0, %xmm6 vpslldq $8, %xmm0, %xmm17 vpslldq $12, %xmm0, %xmm18 vpternlogq $150, %xmm17, %xmm6, %xmm18 vmovaps %xmm0, -48(%rsp) vpternlogq $150, %xmm18, %xmm0, %xmm2 vpslldq $4, %xmm1, %xmm18 vpslldq $8, %xmm1, %xmm19 vmovaps %xmm1, -64(%rsp) vpslldq $12, %xmm1, %xmm17 vpsrldq $8, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm21 vpternlogq $150, %xmm7, %xmm27, %xmm21 vpsrldq $8, %xmm9, %xmm7 vpshufd $78, %xmm10, %xmm6 vpternlogq $150, %xmm7, %xmm20, %xmm6 vmovdqa64 %xmm2, %xmm27 vpshufd $255, %xmm2, %xmm1 cmpq $128, %r8 jb .LBB1_6 vmovdqa64 %xmm1, %xmm20 vpxor %xmm7, %xmm7, %xmm7 movq %r8, %rdx vpbroadcastq .LCPI1_13(%rip), %xmm29 vmovdqa64 %xmm14, %xmm22 vmovdqa64 %xmm5, %xmm26 vmovdqa %xmm4, %xmm5 vmovdqa %xmm3, %xmm4 vmovdqa64 %xmm6, %xmm28 vmovdqa -128(%rsp), %xmm6 vmovdqa -112(%rsp), %xmm8 .p2align 4, 0x90 .LBB1_4: vmovdqu 16(%rcx), %xmm13 vmovdqu 32(%rcx), %xmm9 vmovdqu 80(%rcx), %xmm10 vmovdqu 96(%rcx), %xmm11 vmovdqu 112(%rcx), %xmm12 vmovdqa64 %xmm22, %xmm14 vpclmulqdq $0, %xmm12, %xmm14, %xmm15 vpclmulqdq $1, %xmm12, %xmm14, %xmm0 vpclmulqdq $16, %xmm12, %xmm14, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $0, %xmm11, %xmm4, %xmm3 vpclmulqdq $1, %xmm11, %xmm4, %xmm1 vpclmulqdq $16, %xmm11, %xmm4, %xmm2 vpternlogq $150, %xmm1, %xmm0, %xmm2 vpclmulqdq $0, %xmm10, %xmm8, %xmm0 vpternlogq $150, %xmm15, %xmm3, %xmm0 vmovdqa64 %xmm21, %xmm15 vpclmulqdq $1, %xmm10, %xmm8, %xmm1 vpclmulqdq $16, %xmm10, %xmm8, %xmm3 vpternlogq $150, %xmm1, %xmm2, %xmm3 vmovdqu 48(%rcx), %xmm1 vmovdqu 64(%rcx), %xmm2 vpclmulqdq $17, %xmm12, %xmm14, %xmm12 vpclmulqdq $17, %xmm11, %xmm4, %xmm11 vpclmulqdq $17, %xmm10, %xmm8, %xmm10 vpternlogq $150, %xmm12, %xmm11, %xmm10 vpclmulqdq $1, %xmm2, %xmm5, %xmm11 vpclmulqdq $16, %xmm2, %xmm5, %xmm12 vpternlogq $150, %xmm11, %xmm3, %xmm12 vpclmulqdq $0, %xmm2, %xmm5, %xmm3 vmovdqa64 %xmm28, %xmm14 vpclmulqdq $0, %xmm1, %xmm14, %xmm11 vpternlogq $150, %xmm3, %xmm0, %xmm11 vpclmulqdq $1, %xmm1, %xmm14, %xmm0 vpclmulqdq $16, %xmm1, %xmm14, %xmm3 vpternlogq $150, %xmm0, %xmm12, %xmm3 vpclmulqdq $17, %xmm2, %xmm5, %xmm0 vpclmulqdq $17, %xmm1, %xmm14, %xmm1 vpternlogq $150, %xmm0, %xmm10, %xmm1 vmovdqa64 %xmm26, %xmm12 vpclmulqdq $1, %xmm9, %xmm12, %xmm0 vpclmulqdq $16, %xmm9, %xmm12, %xmm2 vpternlogq $150, %xmm0, %xmm3, %xmm2 vpclmulqdq $0, %xmm9, %xmm12, %xmm0 vpclmulqdq $0, %xmm13, %xmm15, %xmm3 vpternlogq $150, %xmm0, %xmm11, %xmm3 vpclmulqdq $1, %xmm13, %xmm15, %xmm0 vpclmulqdq $16, %xmm13, %xmm15, %xmm10 vpternlogq $150, %xmm0, %xmm2, %xmm10 vpxor (%rcx), %xmm7, %xmm0 vpclmulqdq $17, %xmm9, %xmm12, %xmm2 vpclmulqdq $17, %xmm13, %xmm15, %xmm9 vpternlogq $150, %xmm2, %xmm1, %xmm9 vpclmulqdq $1, %xmm0, %xmm6, %xmm1 vpclmulqdq $16, %xmm0, %xmm6, %xmm2 vpternlogq $150, %xmm1, %xmm10, %xmm2 vpclmulqdq $0, %xmm0, %xmm6, %xmm1 vpslldq $8, %xmm2, %xmm7 vpternlogq $150, %xmm1, %xmm3, %xmm7 vpclmulqdq $17, %xmm0, %xmm6, %xmm0 vmovdqa64 %xmm29, %xmm10 vpclmulqdq $16, %xmm10, %xmm7, %xmm1 vpshufd $78, %xmm7, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm10, %xmm1, %xmm7 vpternlogq $150, %xmm0, %xmm9, %xmm7 vpsrldq $8, %xmm2, %xmm0 vpshufd $78, %xmm1, %xmm1 addq $128, %rcx addq $-128, %rdx vpternlogq $150, %xmm0, %xmm1, %xmm7 cmpq $127, %rdx ja .LBB1_4 vmovdqa64 %xmm29, %xmm10 vmovdqa %xmm4, %xmm3 vmovdqa %xmm5, %xmm4 vmovdqa64 %xmm26, %xmm5 vmovdqa64 %xmm22, %xmm14 vmovdqa64 %xmm28, %xmm6 vmovdqa64 %xmm20, %xmm1 jmp .LBB1_7 .LBB1_6: vpxor %xmm7, %xmm7, %xmm7 movq %r8, %rdx vpbroadcastq .LCPI1_13(%rip), %xmm10 .LBB1_7: vpternlogq $150, %xmm19, %xmm18, %xmm17 vpxor %xmm0, %xmm0, %xmm0 vaesenclast %xmm0, %xmm1, %xmm11 vmovdqa64 %xmm11, %xmm28 cmpq $16, %rdx vmovdqa -96(%rsp), %xmm15 vmovdqa -80(%rsp), %xmm12 vmovdqa64 %xmm23, %xmm13 vmovapd %xmm25, %xmm1 vmovdqa -64(%rsp), %xmm9 vmovdqa64 %xmm3, %xmm29 jb .LBB1_16 leaq -16(%rdx), %rdi testb $16, %dil jne .LBB1_9 vpxor (%rcx), %xmm7, %xmm7 addq $16, %rcx vpclmulqdq $0, %xmm7, %xmm14, %xmm0 vpclmulqdq $1, %xmm7, %xmm14, %xmm10 vpclmulqdq $16, %xmm7, %xmm14, %xmm9 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $17, %xmm7, %xmm14, %xmm1 vpslldq $8, %xmm9, %xmm10 vpxor %xmm0, %xmm10, %xmm10 vpsrldq $8, %xmm9, %xmm9 vpbroadcastq .LCPI1_13(%rip), %xmm0 vpclmulqdq $16, %xmm0, %xmm10, %xmm7 vpshufd $78, %xmm10, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpbroadcastq .LCPI1_13(%rip), %xmm0 vpclmulqdq $16, %xmm0, %xmm7, %xmm10 vpshufd $78, %xmm7, %xmm18 vpxor %xmm1, %xmm10, %xmm7 vpbroadcastq .LCPI1_13(%rip), %xmm10 vmovapd %xmm25, %xmm1 vpternlogq $150, %xmm9, %xmm18, %xmm7 vmovdqa -64(%rsp), %xmm9 movq %rdi, %rdx cmpq $16, %rdi jb .LBB1_10 .LBB1_36: vmovapd %xmm1, %xmm18 .p2align 4, 0x90 .LBB1_37: vpxor (%rcx), %xmm7, %xmm0 vpclmulqdq $0, %xmm0, %xmm14, %xmm1 vpclmulqdq $1, %xmm0, %xmm14, %xmm2 vpclmulqdq $16, %xmm0, %xmm14, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm14, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $16, %xmm10, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm10, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm0, %xmm2, %xmm3 vpternlogq $150, 16(%rcx), %xmm1, %xmm3 addq $-32, %rdx addq $32, %rcx vpclmulqdq $0, %xmm3, %xmm14, %xmm0 vpclmulqdq $1, %xmm3, %xmm14, %xmm1 vpclmulqdq $16, %xmm3, %xmm14, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $17, %xmm3, %xmm14, %xmm2 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsrldq $8, %xmm1, %xmm1 vpclmulqdq $16, %xmm10, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm10, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm2, %xmm3, %xmm7 vpternlogq $150, %xmm1, %xmm0, %xmm7 cmpq $15, %rdx ja .LBB1_37 movq %rdx, %rdi vmovapd %xmm18, %xmm1 vpternlogq $150, %xmm17, %xmm9, %xmm28 testq %rdi, %rdi jne .LBB1_11 jmp .LBB1_12 .LBB1_16: movq %rdx, %rdi vpternlogq $150, %xmm17, %xmm9, %xmm28 testq %rdi, %rdi jne .LBB1_11 jmp .LBB1_12 .LBB1_9: cmpq $16, %rdi jae .LBB1_36 .LBB1_10: vpternlogq $150, %xmm17, %xmm9, %xmm28 testq %rdi, %rdi je .LBB1_12 .LBB1_11: movl $-1, %edx bzhil %edi, %edx, %edx kmovd %edx, %k1 vmovdqu8 (%rcx), %xmm0 {%k1} {z} vpxor %xmm0, %xmm7, %xmm0 vmovapd %xmm1, %xmm11 vpclmulqdq $0, %xmm0, %xmm14, %xmm1 vpclmulqdq $1, %xmm0, %xmm14, %xmm2 vpclmulqdq $16, %xmm0, %xmm14, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm14, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $16, %xmm10, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm10, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm7 vpternlogq $150, %xmm2, %xmm1, %xmm7 vmovapd %xmm11, %xmm1 .LBB1_12: vpslldq $4, %xmm27, %xmm18 vpslldq $8, %xmm27, %xmm19 vpslldq $12, %xmm27, %xmm17 vpshufb %xmm16, %xmm28, %xmm0 vpbroadcastq .LCPI1_12(%rip), %xmm8 vmovq %r10, %xmm16 vmovq %r8, %xmm20 cmpq $128, %r10 jb .LBB1_17 vmovdqa64 %xmm0, %xmm26 movq %r9, %rdx movq %r10, %rcx vmovdqa64 %xmm14, %xmm22 vmovdqa64 %xmm5, %xmm30 vmovdqa64 %xmm4, %xmm31 vmovdqa64 %xmm29, %xmm4 vmovdqa64 %xmm6, %xmm29 vmovdqa -128(%rsp), %xmm6 vmovdqa -112(%rsp), %xmm8 vmovdqa64 %xmm21, %xmm14 .p2align 4, 0x90 .LBB1_14: vmovdqu 16(%rdx), %xmm9 vmovdqu 32(%rdx), %xmm10 vmovdqu 80(%rdx), %xmm0 vmovdqu 96(%rdx), %xmm1 vmovdqu 112(%rdx), %xmm2 vmovdqa64 %xmm22, %xmm5 vpclmulqdq $0, %xmm2, %xmm5, %xmm3 vpclmulqdq $1, %xmm2, %xmm5, %xmm11 vpclmulqdq $16, %xmm2, %xmm5, %xmm12 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $0, %xmm1, %xmm4, %xmm12 vpclmulqdq $1, %xmm1, %xmm4, %xmm15 vpclmulqdq $16, %xmm1, %xmm4, %xmm13 vpternlogq $150, %xmm15, %xmm11, %xmm13 vpclmulqdq $0, %xmm0, %xmm8, %xmm11 vpternlogq $150, %xmm3, %xmm12, %xmm11 vpclmulqdq $1, %xmm0, %xmm8, %xmm3 vpclmulqdq $16, %xmm0, %xmm8, %xmm12 vpternlogq $150, %xmm3, %xmm13, %xmm12 vmovdqu 48(%rdx), %xmm3 vmovdqu 64(%rdx), %xmm13 vpclmulqdq $17, %xmm2, %xmm5, %xmm2 vpclmulqdq $17, %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm0, %xmm8, %xmm0 vpternlogq $150, %xmm2, %xmm1, %xmm0 vmovdqa64 %xmm31, %xmm5 vpclmulqdq $1, %xmm13, %xmm5, %xmm1 vpclmulqdq $16, %xmm13, %xmm5, %xmm2 vpternlogq $150, %xmm1, %xmm12, %xmm2 vpclmulqdq $0, %xmm13, %xmm5, %xmm1 vmovdqa64 %xmm29, %xmm15 vpclmulqdq $0, %xmm3, %xmm15, %xmm12 vpternlogq $150, %xmm1, %xmm11, %xmm12 vpclmulqdq $1, %xmm3, %xmm15, %xmm1 vpclmulqdq $16, %xmm3, %xmm15, %xmm11 vpternlogq $150, %xmm1, %xmm2, %xmm11 vpclmulqdq $17, %xmm13, %xmm5, %xmm1 vpclmulqdq $17, %xmm3, %xmm15, %xmm2 vpternlogq $150, %xmm1, %xmm0, %xmm2 vmovdqa64 %xmm30, %xmm5 vpclmulqdq $1, %xmm10, %xmm5, %xmm0 vpclmulqdq $16, %xmm10, %xmm5, %xmm1 vpternlogq $150, %xmm0, %xmm11, %xmm1 vpclmulqdq $0, %xmm10, %xmm5, %xmm0 vpclmulqdq $0, %xmm9, %xmm14, %xmm3 vpternlogq $150, %xmm0, %xmm12, %xmm3 vpclmulqdq $1, %xmm9, %xmm14, %xmm0 vpclmulqdq $16, %xmm9, %xmm14, %xmm11 vpternlogq $150, %xmm0, %xmm1, %xmm11 vpxor (%rdx), %xmm7, %xmm0 vpclmulqdq $17, %xmm10, %xmm5, %xmm1 vpbroadcastq .LCPI1_13(%rip), %xmm10 vpclmulqdq $17, %xmm9, %xmm14, %xmm9 vpternlogq $150, %xmm1, %xmm2, %xmm9 vpclmulqdq $1, %xmm0, %xmm6, %xmm1 vpclmulqdq $16, %xmm0, %xmm6, %xmm2 vpternlogq $150, %xmm1, %xmm11, %xmm2 vpclmulqdq $0, %xmm0, %xmm6, %xmm1 vpslldq $8, %xmm2, %xmm7 vpternlogq $150, %xmm1, %xmm3, %xmm7 vpclmulqdq $17, %xmm0, %xmm6, %xmm0 vpclmulqdq $16, %xmm10, %xmm7, %xmm1 vpshufd $78, %xmm7, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm10, %xmm1, %xmm7 vpternlogq $150, %xmm0, %xmm9, %xmm7 vpsrldq $8, %xmm2, %xmm0 vpshufd $78, %xmm1, %xmm1 addq $128, %rdx addq $-128, %rcx vpternlogq $150, %xmm0, %xmm1, %xmm7 cmpq $127, %rcx ja .LBB1_14 vmovdqa -96(%rsp), %xmm15 vmovdqa -80(%rsp), %xmm12 vmovdqa64 %xmm23, %xmm13 vmovapd %xmm25, %xmm1 vmovdqa -64(%rsp), %xmm9 vmovdqa64 %xmm22, %xmm14 vmovdqa64 %xmm26, %xmm0 vpbroadcastq .LCPI1_12(%rip), %xmm8 jmp .LBB1_18 .LBB1_17: movq %r10, %rcx movq %r9, %rdx .LBB1_18: vmovd 8(%rsi), %xmm2 vmovq (%rsi), %xmm3 vpternlogq $150, %xmm19, %xmm18, %xmm17 vaesenclast %xmm8, %xmm0, %xmm11 vpunpcklqdq %xmm16, %xmm20, %xmm4 cmpq $16, %rcx vmovdqa64 %xmm27, %xmm8 jb .LBB1_24 leaq -16(%rcx), %rsi testb $16, %sil jne .LBB1_21 vpxor (%rdx), %xmm7, %xmm0 addq $16, %rdx vpclmulqdq $0, %xmm0, %xmm14, %xmm5 vpclmulqdq $1, %xmm0, %xmm14, %xmm6 vpclmulqdq $16, %xmm0, %xmm14, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm0, %xmm14, %xmm0 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpsrldq $8, %xmm6, %xmm6 vpclmulqdq $16, %xmm10, %xmm5, %xmm7 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $16, %xmm10, %xmm5, %xmm7 vpshufd $78, %xmm5, %xmm5 vpxor %xmm0, %xmm7, %xmm7 vpternlogq $150, %xmm6, %xmm5, %xmm7 movq %rsi, %rcx .LBB1_21: cmpq $16, %rsi jb .LBB1_25 .p2align 4, 0x90 .LBB1_22: vpxor (%rdx), %xmm7, %xmm0 vpclmulqdq $0, %xmm0, %xmm14, %xmm5 vpclmulqdq $1, %xmm0, %xmm14, %xmm6 vpclmulqdq $16, %xmm0, %xmm14, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm0, %xmm14, %xmm0 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpsrldq $8, %xmm6, %xmm6 vpclmulqdq $16, %xmm10, %xmm5, %xmm7 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $16, %xmm10, %xmm5, %xmm7 vpshufd $78, %xmm5, %xmm5 vpternlogq $150, %xmm0, %xmm6, %xmm7 vpternlogq $150, 16(%rdx), %xmm5, %xmm7 addq $-32, %rcx addq $32, %rdx vpclmulqdq $0, %xmm7, %xmm14, %xmm0 vpclmulqdq $1, %xmm7, %xmm14, %xmm5 vpclmulqdq $16, %xmm7, %xmm14, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm7, %xmm14, %xmm6 vpslldq $8, %xmm5, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpsrldq $8, %xmm5, %xmm5 vpclmulqdq $16, %xmm10, %xmm0, %xmm7 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm7, %xmm0 vpclmulqdq $16, %xmm10, %xmm0, %xmm7 vpshufd $78, %xmm0, %xmm0 vpxor %xmm6, %xmm7, %xmm7 vpternlogq $150, %xmm5, %xmm0, %xmm7 cmpq $15, %rcx ja .LBB1_22 .LBB1_24: movq %rcx, %rsi .LBB1_25: movq 88(%rsp), %rcx vpunpcklqdq %xmm2, %xmm3, %xmm2 vpternlogq $150, %xmm17, %xmm8, %xmm11 vmovdqa %xmm11, -128(%rsp) vpsllq $3, %xmm4, %xmm3 testq %rsi, %rsi je .LBB1_27 movl $-1, %edi bzhil %esi, %edi, %esi kmovd %esi, %k1 vmovdqu8 (%rdx), %xmm0 {%k1} {z} vpxor %xmm0, %xmm7, %xmm0 vpclmulqdq $0, %xmm0, %xmm14, %xmm4 vpclmulqdq $1, %xmm0, %xmm14, %xmm5 vpclmulqdq $16, %xmm0, %xmm14, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm0, %xmm14, %xmm0 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpclmulqdq $16, %xmm10, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm10, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm0, %xmm6, %xmm7 vpternlogq $150, %xmm5, %xmm4, %xmm7 .LBB1_27: vpxor %xmm3, %xmm7, %xmm0 vpclmulqdq $1, %xmm0, %xmm14, %xmm3 vpclmulqdq $16, %xmm0, %xmm14, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $0, %xmm0, %xmm14, %xmm4 vpclmulqdq $17, %xmm0, %xmm14, %xmm0 vpslldq $8, %xmm3, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpshufd $78, %xmm4, %xmm5 vpclmulqdq $16, %xmm10, %xmm4, %xmm4 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $16, %xmm10, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpternlogq $150, %xmm2, %xmm0, %xmm5 vpsrldq $8, %xmm3, %xmm0 vpternlogq $150, %xmm0, %xmm4, %xmm5 vpternlogq $108, .LCPI1_14(%rip), %xmm24, %xmm5 vaesenc %xmm15, %xmm5, %xmm0 vmovdqa %xmm12, %xmm7 vaesenc %xmm12, %xmm0, %xmm0 vmovdqa %xmm13, %xmm10 vaesenc %xmm13, %xmm0, %xmm0 vmovapd %xmm1, -112(%rsp) vaesenc %xmm1, %xmm0, %xmm0 vmovdqa 32(%rsp), %xmm12 vaesenc %xmm12, %xmm0, %xmm0 vmovdqa 16(%rsp), %xmm13 vaesenc %xmm13, %xmm0, %xmm0 vmovdqa (%rsp), %xmm4 vaesenc %xmm4, %xmm0, %xmm0 vmovdqa -16(%rsp), %xmm3 vaesenc %xmm3, %xmm0, %xmm0 vmovdqa -32(%rsp), %xmm1 vaesenc %xmm1, %xmm0, %xmm0 vmovdqa -48(%rsp), %xmm5 vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vmovdqa64 %xmm28, %xmm6 vaesenc %xmm6, %xmm0, %xmm0 vaesenclast -128(%rsp), %xmm0, %xmm0 vmovdqu %xmm0, (%rcx) vpor .LCPI1_15(%rip), %xmm0, %xmm15 movq 72(%rsp), %rcx cmpq $128, %r10 jb .LBB1_31 vpmovsxbq .LCPI1_20(%rip), %xmm17 vpmovsxbq .LCPI1_21(%rip), %xmm18 vpmovsxbq .LCPI1_22(%rip), %xmm19 vpmovsxbq .LCPI1_23(%rip), %xmm20 vpmovsxbq .LCPI1_24(%rip), %xmm21 vpmovsxbq .LCPI1_25(%rip), %xmm22 vpmovsxbq .LCPI1_26(%rip), %xmm23 vmovdqa64 %xmm4, %xmm28 vmovdqa64 %xmm3, %xmm30 vmovdqa64 %xmm1, %xmm31 vmovdqa64 %xmm5, %xmm16 vmovdqa64 %xmm8, %xmm29 vmovdqa64 %xmm6, %xmm26 vmovdqa64 %xmm7, %xmm25 vmovdqa64 %xmm10, %xmm27 vmovaps -96(%rsp), %xmm10 vmovaps -112(%rsp), %xmm1 vmovdqa -128(%rsp), %xmm11 .p2align 4, 0x90 .LBB1_29: vpaddd .LCPI1_0(%rip), %xmm15, %xmm0 vpaddd %xmm17, %xmm15, %xmm4 vpaddd %xmm18, %xmm15, %xmm5 vpaddd %xmm19, %xmm15, %xmm6 vpaddd %xmm20, %xmm15, %xmm7 vpaddd %xmm21, %xmm15, %xmm8 vpaddd %xmm22, %xmm15, %xmm9 vpxorq %xmm24, %xmm15, %xmm2 vpxorq %xmm0, %xmm24, %xmm3 vpxorq %xmm4, %xmm24, %xmm4 vpxorq %xmm5, %xmm24, %xmm5 vpxorq %xmm6, %xmm24, %xmm6 vpxorq %xmm7, %xmm24, %xmm7 vpxorq %xmm8, %xmm24, %xmm8 vpxorq %xmm9, %xmm24, %xmm14 vmovdqa -64(%rsp), %xmm9 #APP vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm10, %xmm4, %xmm4 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm10, %xmm6, %xmm6 vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm10, %xmm8, %xmm8 vaesenc %xmm10, %xmm14, %xmm14 #NO_APP vmovdqa64 %xmm25, %xmm0 #APP vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm8, %xmm8 vaesenc %xmm0, %xmm14, %xmm14 #NO_APP vmovdqa64 %xmm27, %xmm0 #APP vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm8, %xmm8 vaesenc %xmm0, %xmm14, %xmm14 #NO_APP #APP vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm4, %xmm4 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm6, %xmm6 vaesenc %xmm1, %xmm7, %xmm7 vaesenc %xmm1, %xmm8, %xmm8 vaesenc %xmm1, %xmm14, %xmm14 #NO_APP #APP vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm12, %xmm6, %xmm6 vaesenc %xmm12, %xmm7, %xmm7 vaesenc %xmm12, %xmm8, %xmm8 vaesenc %xmm12, %xmm14, %xmm14 #NO_APP #APP vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm13, %xmm3, %xmm3 vaesenc %xmm13, %xmm4, %xmm4 vaesenc %xmm13, %xmm5, %xmm5 vaesenc %xmm13, %xmm6, %xmm6 vaesenc %xmm13, %xmm7, %xmm7 vaesenc %xmm13, %xmm8, %xmm8 vaesenc %xmm13, %xmm14, %xmm14 #NO_APP vmovdqa64 %xmm28, %xmm0 #APP vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm8, %xmm8 vaesenc %xmm0, %xmm14, %xmm14 #NO_APP vmovdqa64 %xmm30, %xmm0 #APP vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm8, %xmm8 vaesenc %xmm0, %xmm14, %xmm14 #NO_APP vmovdqa64 %xmm31, %xmm0 #APP vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm8, %xmm8 vaesenc %xmm0, %xmm14, %xmm14 #NO_APP vmovdqa64 %xmm16, %xmm0 #APP vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm8, %xmm8 vaesenc %xmm0, %xmm14, %xmm14 #NO_APP #APP vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm9, %xmm6, %xmm6 vaesenc %xmm9, %xmm7, %xmm7 vaesenc %xmm9, %xmm8, %xmm8 vaesenc %xmm9, %xmm14, %xmm14 #NO_APP vmovdqa64 %xmm29, %xmm0 #APP vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm8, %xmm8 vaesenc %xmm0, %xmm14, %xmm14 #NO_APP vmovdqa64 %xmm26, %xmm0 #APP vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm8, %xmm8 vaesenc %xmm0, %xmm14, %xmm14 #NO_APP #APP vaesenclast %xmm11, %xmm2, %xmm2 vaesenclast %xmm11, %xmm3, %xmm3 vaesenclast %xmm11, %xmm4, %xmm4 vaesenclast %xmm11, %xmm5, %xmm5 vaesenclast %xmm11, %xmm6, %xmm6 vaesenclast %xmm11, %xmm7, %xmm7 vaesenclast %xmm11, %xmm8, %xmm8 vaesenclast %xmm11, %xmm14, %xmm14 #NO_APP vpxor (%r9), %xmm2, %xmm0 vpxor 16(%r9), %xmm3, %xmm2 vpxor 32(%r9), %xmm4, %xmm3 vpxor 48(%r9), %xmm5, %xmm4 vpxor 64(%r9), %xmm6, %xmm5 vpxor 80(%r9), %xmm7, %xmm6 vpxor 96(%r9), %xmm8, %xmm7 vpxor 112(%r9), %xmm14, %xmm8 leaq 128(%r9), %r9 vmovdqu %xmm0, (%rcx) vmovdqu %xmm2, 16(%rcx) vmovdqu %xmm3, 32(%rcx) vmovdqu %xmm4, 48(%rcx) vmovdqu %xmm5, 64(%rcx) vmovdqu %xmm6, 80(%rcx) vmovdqu %xmm7, 96(%rcx) vmovdqu %xmm8, 112(%rcx) addq $128, %rcx addq $-128, %r10 vpaddd %xmm23, %xmm15, %xmm15 cmpq $127, %r10 ja .LBB1_29 vmovdqa64 %xmm28, %xmm4 vmovdqa64 %xmm30, %xmm3 vmovdqa64 %xmm31, %xmm1 vmovdqa64 %xmm16, %xmm5 vmovdqa64 %xmm29, %xmm8 vmovdqa64 %xmm26, %xmm6 vmovdqa64 %xmm25, %xmm7 vmovdqa64 %xmm27, %xmm10 .LBB1_31: cmpq $16, %r10 jb .LBB1_34 leaq -16(%r10), %rsi testb $16, %sil jne .LBB1_39 leaq 16(%r9), %rdi leaq 16(%rcx), %rdx vpaddd .LCPI1_0(%rip), %xmm15, %xmm2 vpxorq %xmm24, %xmm15, %xmm0 vaesenc -96(%rsp), %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm10, %xmm0, %xmm0 vaesenc -112(%rsp), %xmm0, %xmm0 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm13, %xmm0, %xmm0 vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenclast -128(%rsp), %xmm0, %xmm0 vpxor (%r9), %xmm0, %xmm0 vmovdqu %xmm0, (%rcx) movq %rdx, %rcx vmovdqa %xmm2, %xmm15 movq %rsi, %r10 movq %rdi, %r9 cmpq $16, %rsi jae .LBB1_40 jmp .LBB1_43 .LBB1_34: movq %r9, %rdi movq %rcx, %rdx movq %r10, %rsi vmovdqa %xmm15, %xmm2 jmp .LBB1_43 .LBB1_39: cmpq $16, %rsi jb .LBB1_43 .LBB1_40: vmovdqa64 -96(%rsp), %xmm30 vmovdqa64 %xmm3, %xmm27 vmovdqa64 -112(%rsp), %xmm31 vmovdqa64 %xmm6, %xmm19 vmovdqa64 %xmm5, %xmm21 vmovdqa64 %xmm1, %xmm22 vmovdqa64 %xmm13, %xmm25 vmovdqa64 %xmm12, %xmm26 vmovdqa64 %xmm4, %xmm28 vmovdqa64 %xmm9, %xmm20 vmovdqa64 %xmm10, %xmm23 vmovdqa64 %xmm8, %xmm29 vmovdqa64 -128(%rsp), %xmm16 vmovdqa -80(%rsp), %xmm7 .p2align 4, 0x90 .LBB1_41: vpaddd .LCPI1_0(%rip), %xmm15, %xmm17 vpxorq %xmm24, %xmm15, %xmm4 vmovdqa64 %xmm30, %xmm3 vaesenc %xmm3, %xmm4, %xmm4 vaesenc %xmm7, %xmm4, %xmm4 vmovdqa64 %xmm23, %xmm1 vaesenc %xmm1, %xmm4, %xmm4 vmovdqa64 %xmm31, %xmm8 vaesenc %xmm8, %xmm4, %xmm4 vmovdqa64 %xmm26, %xmm11 vaesenc %xmm11, %xmm4, %xmm4 vmovdqa64 %xmm25, %xmm13 vaesenc %xmm13, %xmm4, %xmm4 vmovdqa64 %xmm28, %xmm10 vaesenc %xmm10, %xmm4, %xmm4 vmovdqa64 %xmm27, %xmm12 vaesenc %xmm12, %xmm4, %xmm4 vmovdqa64 %xmm22, %xmm9 vaesenc %xmm9, %xmm4, %xmm4 vmovdqa64 %xmm21, %xmm5 vaesenc %xmm5, %xmm4, %xmm4 vmovdqa64 %xmm20, %xmm6 vaesenc %xmm6, %xmm4, %xmm4 vmovdqa64 %xmm29, %xmm2 vaesenc %xmm2, %xmm4, %xmm4 vmovdqa64 %xmm19, %xmm14 vaesenc %xmm14, %xmm4, %xmm4 vmovdqa64 %xmm16, %xmm0 vaesenclast %xmm0, %xmm4, %xmm4 vpxor (%r9), %xmm4, %xmm4 vmovdqu %xmm4, (%rcx) vpxorq %xmm17, %xmm24, %xmm0 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm13, %xmm0, %xmm0 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm14, %xmm0, %xmm0 vmovdqa64 %xmm16, %xmm1 vaesenclast %xmm1, %xmm0, %xmm0 vpxor 16(%r9), %xmm0, %xmm0 addq $32, %r9 vmovdqu %xmm0, 16(%rcx) addq $32, %rcx addq $-32, %r10 vpaddd .LCPI1_1(%rip), %xmm15, %xmm15 cmpq $15, %r10 ja .LBB1_41 movq %r9, %rdi movq %rcx, %rdx movq %r10, %rsi vmovdqa %xmm15, %xmm2 vmovdqa64 %xmm29, %xmm8 vmovdqa64 %xmm27, %xmm3 vmovdqa64 %xmm28, %xmm4 vmovdqa64 %xmm26, %xmm12 vmovdqa64 %xmm25, %xmm13 vmovdqa64 %xmm22, %xmm1 vmovdqa64 %xmm21, %xmm5 vmovdqa64 %xmm19, %xmm6 vmovdqa -80(%rsp), %xmm7 vmovdqa64 %xmm23, %xmm10 vmovdqa64 %xmm20, %xmm9 .LBB1_43: testq %rsi, %rsi je .LBB1_45 movl $-1, %ecx bzhil %esi, %ecx, %ecx kmovd %ecx, %k1 vmovdqu8 (%rdi), %xmm0 {%k1} {z} vpxorq %xmm24, %xmm2, %xmm2 vaesenc -96(%rsp), %xmm2, %xmm2 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm10, %xmm2, %xmm2 vaesenc -112(%rsp), %xmm2, %xmm2 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm5, %xmm2, %xmm2 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm6, %xmm2, %xmm2 vaesenclast -128(%rsp), %xmm2, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vmovdqu8 %xmm0, (%rdx) {%k1} .LBB1_45: movzbl %al, %eax .LBB1_46: addq $48, %rsp .cfi_def_cfa_offset 16 popq %rbx .cfi_def_cfa_offset 8 retq .Lfunc_end1: .size haberdashery_aes256gcmsiv_skylakex_encrypt, .Lfunc_end1-haberdashery_aes256gcmsiv_skylakex_encrypt .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .long 1 .long 0 .long 0 .long 0 .LCPI2_1: .long 2 .long 0 .long 0 .long 0 .LCPI2_2: .long 3 .long 0 .long 0 .long 0 .LCPI2_3: .quad 4 .quad 0 .LCPI2_4: .long 5 .long 0 .long 0 .long 0 .LCPI2_5: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI2_14: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 128 .LCPI2_15: .long 6 .long 0 .long 0 .long 0 .LCPI2_16: .long 7 .long 0 .long 0 .long 0 .LCPI2_17: .long 8 .long 0 .long 0 .long 0 .LCPI2_18: .long 9 .long 0 .long 0 .long 0 .LCPI2_19: .long 10 .long 0 .long 0 .long 0 .LCPI2_20: .long 11 .long 0 .long 0 .long 0 .LCPI2_21: .quad -1 .quad 9223372036854775807 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI2_6: .quad 4294967297 .LCPI2_7: .quad 8589934594 .LCPI2_8: .quad 17179869188 .LCPI2_9: .quad 34359738376 .LCPI2_10: .quad 68719476752 .LCPI2_11: .quad 137438953504 .LCPI2_12: .quad 274877907008 .LCPI2_13: .quad -4467570830351532032 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI2_22: .byte 13 .byte 14 .byte 15 .byte 12 .section .rodata,"a",@progbits .LCPI2_23: .byte 1 .byte 0 .section .text.haberdashery_aes256gcmsiv_skylakex_decrypt,"ax",@progbits .globl haberdashery_aes256gcmsiv_skylakex_decrypt .p2align 4, 0x90 .type haberdashery_aes256gcmsiv_skylakex_decrypt,@function haberdashery_aes256gcmsiv_skylakex_decrypt: .cfi_startproc subq $264, %rsp .cfi_def_cfa_offset 272 movq 272(%rsp), %r10 xorl %eax, %eax cmpq 304(%rsp), %r10 jne .LBB2_37 cmpq $12, %rdx jne .LBB2_37 movabsq $68719476737, %rdx cmpq %rdx, %r8 jae .LBB2_37 cmpq %rdx, %r10 jae .LBB2_37 cmpq $16, 288(%rsp) jb .LBB2_37 vmovsd 4(%rsi), %xmm0 vmovss (%rsi), %xmm1 vshufps $65, %xmm0, %xmm1, %xmm0 vxorps (%rdi), %xmm0, %xmm1 vxorps .LCPI2_0(%rip), %xmm1, %xmm3 vxorps .LCPI2_1(%rip), %xmm1, %xmm2 vxorps .LCPI2_2(%rip), %xmm1, %xmm4 vxorps .LCPI2_3(%rip), %xmm1, %xmm0 vxorps .LCPI2_4(%rip), %xmm1, %xmm5 vmovaps 16(%rdi), %xmm7 vmovaps 32(%rdi), %xmm8 vmovaps 48(%rdi), %xmm9 vmovaps 64(%rdi), %xmm6 #APP vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm8, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm9, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 80(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 96(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 112(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 128(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 144(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 160(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 176(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 192(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 208(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 224(%rdi), %xmm6 #APP vaesenclast %xmm6, %xmm1, %xmm1 vaesenclast %xmm6, %xmm3, %xmm3 vaesenclast %xmm6, %xmm2, %xmm2 vaesenclast %xmm6, %xmm4, %xmm4 vaesenclast %xmm6, %xmm0, %xmm0 vaesenclast %xmm6, %xmm5, %xmm5 #NO_APP vunpcklpd %xmm3, %xmm1, %xmm3 vunpcklpd %xmm4, %xmm2, %xmm31 vmovlhps %xmm5, %xmm0, %xmm6 vpslldq $4, %xmm31, %xmm4 vxorpd %xmm1, %xmm1, %xmm1 vunpcklpd %xmm2, %xmm1, %xmm5 vinsertps $55, %xmm2, %xmm0, %xmm2 vpbroadcastd .LCPI2_22(%rip), %xmm17 vpternlogq $150, %xmm5, %xmm4, %xmm2 vpshufb %xmm17, %xmm6, %xmm4 vpbroadcastq .LCPI2_6(%rip), %xmm5 vaesenclast %xmm5, %xmm4, %xmm5 vpternlogq $150, %xmm2, %xmm31, %xmm5 vpslldq $4, %xmm6, %xmm2 vunpcklpd %xmm0, %xmm1, %xmm4 vinsertps $55, %xmm0, %xmm0, %xmm0 vpternlogq $150, %xmm4, %xmm2, %xmm0 vpshufd $255, %xmm5, %xmm2 vaesenclast %xmm1, %xmm2, %xmm12 vmovaps %xmm6, -48(%rsp) vpternlogq $150, %xmm0, %xmm6, %xmm12 vpslldq $4, %xmm5, %xmm0 vpslldq $8, %xmm5, %xmm2 vpslldq $12, %xmm5, %xmm4 vpternlogq $150, %xmm2, %xmm0, %xmm4 vpshufb %xmm17, %xmm12, %xmm0 vpbroadcastq .LCPI2_7(%rip), %xmm2 vaesenclast %xmm2, %xmm0, %xmm10 vmovdqa64 %xmm5, %xmm26 vpternlogq $150, %xmm4, %xmm5, %xmm10 vpslldq $4, %xmm12, %xmm0 vpslldq $8, %xmm12, %xmm2 vpslldq $12, %xmm12, %xmm4 vpternlogq $150, %xmm2, %xmm0, %xmm4 vpshufd $255, %xmm10, %xmm0 vaesenclast %xmm1, %xmm0, %xmm13 vpternlogq $150, %xmm4, %xmm12, %xmm13 vpslldq $4, %xmm10, %xmm2 vpslldq $8, %xmm10, %xmm4 vpslldq $12, %xmm10, %xmm0 vpternlogq $150, %xmm4, %xmm2, %xmm0 vpclmulqdq $0, %xmm3, %xmm3, %xmm2 vpbroadcastq .LCPI2_13(%rip), %xmm7 vpclmulqdq $16, %xmm7, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm7, %xmm2, %xmm4 vpclmulqdq $17, %xmm3, %xmm3, %xmm5 vpshufd $78, %xmm2, %xmm8 vpternlogq $150, %xmm4, %xmm5, %xmm8 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $16, %xmm3, %xmm8, %xmm4 vpclmulqdq $1, %xmm3, %xmm8, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $16, %xmm7, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm7, %xmm2, %xmm5 vpclmulqdq $17, %xmm3, %xmm8, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpsrldq $8, %xmm4, %xmm4 vpshufd $78, %xmm2, %xmm11 vpternlogq $150, %xmm4, %xmm5, %xmm11 vpclmulqdq $0, %xmm11, %xmm11, %xmm2 vpclmulqdq $16, %xmm7, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm7, %xmm2, %xmm4 vpclmulqdq $17, %xmm11, %xmm11, %xmm5 vpshufd $78, %xmm2, %xmm2 vpternlogq $150, %xmm4, %xmm5, %xmm2 vmovdqa %xmm2, 64(%rsp) vpclmulqdq $0, %xmm8, %xmm8, %xmm2 vpclmulqdq $16, %xmm7, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm7, %xmm2, %xmm4 vmovdqa %xmm8, -16(%rsp) vpclmulqdq $17, %xmm8, %xmm8, %xmm5 vpshufd $78, %xmm2, %xmm6 vpternlogq $150, %xmm4, %xmm5, %xmm6 vpclmulqdq $0, %xmm3, %xmm6, %xmm4 vpclmulqdq $16, %xmm3, %xmm6, %xmm2 vpclmulqdq $1, %xmm3, %xmm6, %xmm5 vpxor %xmm2, %xmm5, %xmm2 vpslldq $8, %xmm2, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $16, %xmm7, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vmovdqa64 %xmm7, %xmm16 vpclmulqdq $16, %xmm7, %xmm4, %xmm5 vmovdqa %xmm6, 48(%rsp) vpclmulqdq $17, %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpshufb %xmm17, %xmm13, %xmm6 vpbroadcastq .LCPI2_8(%rip), %xmm7 vaesenclast %xmm7, %xmm6, %xmm8 vpternlogq $150, %xmm0, %xmm10, %xmm8 vpslldq $4, %xmm13, %xmm0 vpslldq $8, %xmm13, %xmm6 vpslldq $12, %xmm13, %xmm7 vpternlogq $150, %xmm6, %xmm0, %xmm7 vpshufd $255, %xmm8, %xmm0 vaesenclast %xmm1, %xmm0, %xmm9 vpternlogq $150, %xmm7, %xmm13, %xmm9 vpshufb %xmm17, %xmm9, %xmm0 vpbroadcastq .LCPI2_9(%rip), %xmm6 vaesenclast %xmm6, %xmm0, %xmm15 vpslldq $4, %xmm8, %xmm0 vpslldq $8, %xmm8, %xmm6 vpslldq $12, %xmm8, %xmm7 vpternlogq $150, %xmm6, %xmm0, %xmm7 vmovdqa64 %xmm8, %xmm18 vpternlogq $150, %xmm7, %xmm8, %xmm15 vpslldq $4, %xmm9, %xmm0 vpslldq $8, %xmm9, %xmm6 vpslldq $12, %xmm9, %xmm7 vpternlogq $150, %xmm6, %xmm0, %xmm7 vpshufd $255, %xmm15, %xmm0 vaesenclast %xmm1, %xmm0, %xmm8 vmovaps %xmm9, -32(%rsp) vpternlogq $150, %xmm7, %xmm9, %xmm8 vpshufb %xmm17, %xmm8, %xmm0 vpbroadcastq .LCPI2_10(%rip), %xmm6 vaesenclast %xmm6, %xmm0, %xmm9 vpslldq $4, %xmm15, %xmm0 vpslldq $8, %xmm15, %xmm6 vpslldq $12, %xmm15, %xmm7 vpternlogq $150, %xmm6, %xmm0, %xmm7 vmovaps %xmm15, -128(%rsp) vpternlogq $150, %xmm7, %xmm15, %xmm9 vmovdqa64 %xmm8, %xmm21 vmovdqa %xmm9, %xmm8 vmovdqa %xmm9, -96(%rsp) vpslldq $4, %xmm21, %xmm0 vpslldq $8, %xmm21, %xmm6 vpslldq $12, %xmm21, %xmm7 vpternlogq $150, %xmm6, %xmm0, %xmm7 vpshufd $255, %xmm9, %xmm0 vaesenclast %xmm1, %xmm0, %xmm14 vpternlogq $150, %xmm7, %xmm21, %xmm14 vpbroadcastq .LCPI2_11(%rip), %xmm0 vpshufb %xmm17, %xmm14, %xmm6 vaesenclast %xmm0, %xmm6, %xmm15 vpslldq $4, %xmm9, %xmm0 vpslldq $8, %xmm9, %xmm6 vpslldq $12, %xmm9, %xmm7 vpternlogq $150, %xmm6, %xmm0, %xmm7 vpslldq $4, %xmm14, %xmm0 vpslldq $8, %xmm14, %xmm6 vpslldq $12, %xmm14, %xmm9 vpternlogq $150, %xmm6, %xmm0, %xmm9 vpternlogq $150, %xmm7, %xmm8, %xmm15 vmovaps %xmm14, -112(%rsp) vmovdqa %xmm15, -80(%rsp) vpshufd $255, %xmm15, %xmm0 vaesenclast %xmm1, %xmm0, %xmm7 vpternlogq $150, %xmm9, %xmm14, %xmm7 vpsrldq $8, %xmm2, %xmm0 vpshufd $78, %xmm4, %xmm15 vpternlogq $150, %xmm0, %xmm5, %xmm15 cmpq $96, %r8 vmovaps %xmm13, 16(%rsp) jb .LBB2_6 vmovdqa %xmm7, %xmm13 vmovapd %xmm10, %xmm23 vmovapd %xmm12, %xmm22 movq %r8, %rax vmovdqa64 %xmm16, %xmm8 vmovdqa 64(%rsp), %xmm14 vmovdqa -16(%rsp), %xmm10 vmovdqa %xmm15, %xmm12 vmovdqa %xmm11, %xmm15 vmovdqa 48(%rsp), %xmm11 .p2align 4, 0x90 .LBB2_25: vmovdqu 48(%rcx), %xmm0 vmovdqu 64(%rcx), %xmm2 vmovdqu 80(%rcx), %xmm4 vpclmulqdq $0, %xmm4, %xmm3, %xmm5 vpclmulqdq $1, %xmm4, %xmm3, %xmm6 vpclmulqdq $16, %xmm4, %xmm3, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $0, %xmm2, %xmm10, %xmm7 vpclmulqdq $1, %xmm2, %xmm10, %xmm9 vpclmulqdq $1, -16(%rsp), %xmm2, %xmm10 vpternlogq $150, %xmm9, %xmm6, %xmm10 vpclmulqdq $0, %xmm0, %xmm15, %xmm6 vpternlogq $150, %xmm5, %xmm7, %xmm6 vpclmulqdq $1, %xmm0, %xmm15, %xmm5 vpclmulqdq $16, %xmm0, %xmm15, %xmm7 vpternlogq $150, %xmm5, %xmm10, %xmm7 vmovdqa -16(%rsp), %xmm10 vmovdqu 16(%rcx), %xmm5 vmovdqu 32(%rcx), %xmm9 vpclmulqdq $17, %xmm4, %xmm3, %xmm4 vpclmulqdq $17, %xmm2, %xmm10, %xmm2 vpclmulqdq $17, %xmm0, %xmm15, %xmm0 vpternlogq $150, %xmm4, %xmm2, %xmm0 vpclmulqdq $1, %xmm9, %xmm11, %xmm2 vpclmulqdq $16, %xmm9, %xmm11, %xmm4 vpternlogq $150, %xmm2, %xmm7, %xmm4 vpclmulqdq $0, %xmm9, %xmm11, %xmm2 vpclmulqdq $0, %xmm5, %xmm12, %xmm7 vpternlogq $150, %xmm2, %xmm6, %xmm7 vpclmulqdq $1, %xmm5, %xmm12, %xmm2 vpclmulqdq $16, %xmm5, %xmm12, %xmm6 vpternlogq $150, %xmm2, %xmm4, %xmm6 vpxor (%rcx), %xmm1, %xmm1 vpclmulqdq $17, %xmm9, %xmm11, %xmm2 vpclmulqdq $17, %xmm5, %xmm12, %xmm4 vpternlogq $150, %xmm2, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm14, %xmm0 vpclmulqdq $16, %xmm1, %xmm14, %xmm2 vpternlogq $150, %xmm0, %xmm6, %xmm2 vpclmulqdq $0, %xmm1, %xmm14, %xmm0 vpslldq $8, %xmm2, %xmm5 vpternlogq $150, %xmm0, %xmm7, %xmm5 vpclmulqdq $17, %xmm1, %xmm14, %xmm0 vpclmulqdq $16, %xmm8, %xmm5, %xmm1 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm1, %xmm5 vpclmulqdq $16, %xmm8, %xmm5, %xmm1 vpternlogq $150, %xmm0, %xmm4, %xmm1 vpsrldq $8, %xmm2, %xmm0 vpshufd $78, %xmm5, %xmm2 addq $96, %rcx addq $-96, %rax vpternlogq $150, %xmm0, %xmm2, %xmm1 cmpq $95, %rax ja .LBB2_25 vmovdqa 16(%rsp), %xmm8 vmovapd -80(%rsp), %xmm14 vmovdqa %xmm15, %xmm11 vmovdqa %xmm12, %xmm15 vmovdqa64 %xmm21, %xmm29 vmovapd %xmm22, %xmm12 vmovapd %xmm23, %xmm10 vmovdqa %xmm13, %xmm7 jmp .LBB2_7 .LBB2_6: vmovdqa %xmm13, %xmm8 vmovdqa64 %xmm21, %xmm29 movq %r8, %rax vmovapd -80(%rsp), %xmm14 .LBB2_7: vpslldq $4, %xmm14, %xmm2 vpslldq $8, %xmm14, %xmm4 vpslldq $12, %xmm14, %xmm0 vpshufb %xmm17, %xmm7, %xmm5 vpbroadcastq .LCPI2_12(%rip), %xmm9 movq 280(%rsp), %rdx cmpq $16, %rax vmovdqa64 %xmm18, %xmm13 jb .LBB2_8 leaq -16(%rax), %rdi testb $16, %dil jne .LBB2_18 vpxor (%rcx), %xmm1, %xmm1 addq $16, %rcx vmovdqa64 %xmm7, %xmm17 vpclmulqdq $0, %xmm1, %xmm3, %xmm7 vmovdqa %xmm8, %xmm13 vpclmulqdq $1, %xmm1, %xmm3, %xmm8 vmovdqa64 %xmm9, %xmm19 vpclmulqdq $16, %xmm1, %xmm3, %xmm9 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $17, %xmm1, %xmm3, %xmm1 vpslldq $8, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpsrldq $8, %xmm8, %xmm8 vmovdqa64 %xmm16, %xmm6 vpclmulqdq $16, %xmm6, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $16, %xmm6, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpxor %xmm1, %xmm9, %xmm1 vpternlogq $150, %xmm8, %xmm7, %xmm1 vmovdqa64 %xmm17, %xmm7 vmovdqa %xmm13, %xmm8 vmovdqa64 %xmm18, %xmm13 vmovdqa64 %xmm19, %xmm9 movq %rdi, %rax jmp .LBB2_20 .LBB2_8: movq %rax, %rdi vmovdqa64 %xmm16, %xmm6 jmp .LBB2_9 .LBB2_18: vmovdqa64 %xmm16, %xmm6 .LBB2_20: cmpq $16, %rdi jb .LBB2_9 vmovdqa64 %xmm9, %xmm19 vmovdqa64 %xmm7, %xmm17 vmovapd %xmm10, %xmm16 .p2align 4, 0x90 .LBB2_22: vpxor (%rcx), %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm3, %xmm7 vpclmulqdq $1, %xmm1, %xmm3, %xmm8 vpclmulqdq $16, %xmm1, %xmm3, %xmm9 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $17, %xmm1, %xmm3, %xmm1 vpslldq $8, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpsrldq $8, %xmm8, %xmm8 vpclmulqdq $16, %xmm6, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $16, %xmm6, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpternlogq $150, %xmm1, %xmm8, %xmm9 vpternlogq $150, 16(%rcx), %xmm7, %xmm9 addq $-32, %rax addq $32, %rcx vpclmulqdq $0, %xmm9, %xmm3, %xmm1 vpclmulqdq $1, %xmm9, %xmm3, %xmm7 vpclmulqdq $16, %xmm9, %xmm3, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm9, %xmm3, %xmm8 vpslldq $8, %xmm7, %xmm9 vpxor %xmm1, %xmm9, %xmm1 vpsrldq $8, %xmm7, %xmm7 vpclmulqdq $16, %xmm6, %xmm1, %xmm9 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm9, %xmm1 vpclmulqdq $16, %xmm6, %xmm1, %xmm9 vpshufd $78, %xmm1, %xmm10 vpxor %xmm8, %xmm9, %xmm1 vpternlogq $150, %xmm7, %xmm10, %xmm1 cmpq $15, %rax ja .LBB2_22 movq %rax, %rdi vmovdqa 16(%rsp), %xmm8 vmovdqa64 %xmm18, %xmm13 vmovapd %xmm16, %xmm10 vmovdqa64 %xmm17, %xmm7 vmovdqa64 %xmm19, %xmm9 .LBB2_9: vpternlogq $150, %xmm4, %xmm2, %xmm0 vaesenclast %xmm9, %xmm5, %xmm9 vmovdqu64 (%rdx), %xmm27 testq %rdi, %rdi je .LBB2_11 movl $-1, %eax bzhil %edi, %eax, %eax kmovd %eax, %k1 vmovdqu8 (%rcx), %xmm2 {%k1} {z} vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm3, %xmm2 vpclmulqdq $1, %xmm1, %xmm3, %xmm4 vpclmulqdq $16, %xmm1, %xmm3, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm1, %xmm3, %xmm1 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpsrldq $8, %xmm4, %xmm4 vpclmulqdq $16, %xmm6, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm6, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm1, %xmm5, %xmm1 vpternlogq $150, %xmm4, %xmm2, %xmm1 .LBB2_11: vmovq %r10, %xmm17 vmovd 8(%rsi), %xmm28 vmovq (%rsi), %xmm25 vmovq %r8, %xmm18 movq 296(%rsp), %rdx vpternlogq $150, %xmm0, %xmm14, %xmm9 vporq .LCPI2_14(%rip), %xmm27, %xmm23 cmpq $96, %r10 vmovdqa %xmm7, 32(%rsp) vmovdqa %xmm9, (%rsp) vmovaps %xmm3, -64(%rsp) vmovdqa64 %xmm27, 240(%rsp) jb .LBB2_12 vmovdqa %xmm11, 80(%rsp) vpaddd .LCPI2_0(%rip), %xmm23, %xmm0 vpaddd .LCPI2_1(%rip), %xmm23, %xmm2 vpaddd .LCPI2_2(%rip), %xmm23, %xmm4 vpaddd .LCPI2_3(%rip), %xmm23, %xmm5 vpaddd .LCPI2_4(%rip), %xmm23, %xmm6 vmovdqa64 %xmm7, %xmm19 vpxorq %xmm31, %xmm23, %xmm7 vpxorq %xmm0, %xmm31, %xmm0 vpxorq %xmm2, %xmm31, %xmm2 vpxorq %xmm4, %xmm31, %xmm4 vpxorq %xmm5, %xmm31, %xmm5 vpxorq %xmm6, %xmm31, %xmm6 vmovaps -48(%rsp), %xmm11 #APP vaesenc %xmm11, %xmm7, %xmm7 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 #NO_APP vmovdqa64 %xmm26, %xmm11 vmovdqa64 %xmm26, 160(%rsp) #APP vaesenc %xmm11, %xmm7, %xmm7 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 #NO_APP vmovapd %xmm12, 144(%rsp) #APP vaesenc %xmm12, %xmm7, %xmm7 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm12, %xmm6, %xmm6 #NO_APP vmovapd %xmm10, 128(%rsp) #APP vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm4, %xmm4 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm10, %xmm6, %xmm6 #NO_APP #APP vaesenc %xmm8, %xmm7, %xmm7 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 #NO_APP #APP vaesenc %xmm13, %xmm7, %xmm7 vaesenc %xmm13, %xmm0, %xmm0 vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm13, %xmm4, %xmm4 vaesenc %xmm13, %xmm5, %xmm5 vaesenc %xmm13, %xmm6, %xmm6 #NO_APP vmovaps -32(%rsp), %xmm8 #APP vaesenc %xmm8, %xmm7, %xmm7 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 #NO_APP vmovaps -128(%rsp), %xmm8 #APP vaesenc %xmm8, %xmm7, %xmm7 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 #NO_APP vmovdqa64 %xmm29, %xmm8 #APP vaesenc %xmm8, %xmm7, %xmm7 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 #NO_APP vmovaps -96(%rsp), %xmm10 #APP vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm4, %xmm4 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm10, %xmm6, %xmm6 #NO_APP vmovaps -112(%rsp), %xmm10 #APP vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm4, %xmm4 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm10, %xmm6, %xmm6 #NO_APP #APP vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm0, %xmm0 vaesenc %xmm14, %xmm2, %xmm2 vaesenc %xmm14, %xmm4, %xmm4 vaesenc %xmm14, %xmm5, %xmm5 vaesenc %xmm14, %xmm6, %xmm6 #NO_APP vmovdqa64 %xmm19, %xmm10 #APP vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm4, %xmm4 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm10, %xmm6, %xmm6 #NO_APP #APP vaesenclast %xmm9, %xmm7, %xmm7 vaesenclast %xmm9, %xmm0, %xmm0 vaesenclast %xmm9, %xmm2, %xmm2 vaesenclast %xmm9, %xmm4, %xmm4 vaesenclast %xmm9, %xmm5, %xmm5 vaesenclast %xmm9, %xmm6, %xmm6 #NO_APP vpxorq (%r9), %xmm7, %xmm22 leaq 96(%r9), %rcx leaq 96(%rdx), %rax vxorpd 16(%r9), %xmm0, %xmm9 vpxor 32(%r9), %xmm2, %xmm10 vpxor 48(%r9), %xmm4, %xmm11 vmovdqa64 %xmm29, %xmm0 vpxor 64(%r9), %xmm5, %xmm12 vmovdqa %xmm13, %xmm2 vpxor 80(%r9), %xmm6, %xmm13 vmovdqu64 %xmm22, (%rdx) vmovupd %xmm9, 16(%rdx) vmovdqu %xmm10, 32(%rdx) vmovdqu %xmm11, 48(%rdx) vmovdqu %xmm12, 64(%rdx) addq $-96, %r10 vmovdqu %xmm13, 80(%rdx) vpaddd .LCPI2_15(%rip), %xmm23, %xmm21 cmpq $96, %r10 jb .LBB2_28 vmovdqa64 %xmm18, 176(%rsp) vmovdqa64 %xmm17, 192(%rsp) vmovdqa64 %xmm25, 208(%rsp) vmovdqa64 %xmm28, 224(%rsp) vmovdqa %xmm2, 112(%rsp) vmovdqa64 -32(%rsp), %xmm19 vmovaps -128(%rsp), %xmm25 vmovdqa %xmm0, 96(%rsp) vmovaps -96(%rsp), %xmm27 vmovaps -112(%rsp), %xmm20 vmovdqa64 %xmm14, %xmm24 vmovdqa64 64(%rsp), %xmm29 vmovdqa64 -16(%rsp), %xmm30 vmovdqa64 48(%rsp), %xmm26 vmovdqa64 80(%rsp), %xmm16 vmovdqa64 %xmm15, %xmm17 vmovapd (%rsp), %xmm28 .p2align 4, 0x90 .LBB2_31: vpaddd .LCPI2_16(%rip), %xmm23, %xmm0 vpaddd .LCPI2_17(%rip), %xmm23, %xmm2 vpaddd .LCPI2_18(%rip), %xmm23, %xmm4 vpaddd .LCPI2_19(%rip), %xmm23, %xmm5 vpaddd .LCPI2_20(%rip), %xmm23, %xmm15 vpxorq %xmm31, %xmm21, %xmm6 vpxorq %xmm0, %xmm31, %xmm14 vpxorq %xmm2, %xmm31, %xmm8 vpxorq %xmm4, %xmm31, %xmm7 vpxorq %xmm5, %xmm31, %xmm0 vpxorq %xmm15, %xmm31, %xmm2 vpxor %xmm5, %xmm5, %xmm5 vpxor %xmm4, %xmm4, %xmm4 vpxor %xmm15, %xmm15, %xmm15 vmovapd %xmm9, %xmm23 vmovdqa64 %xmm10, %xmm18 vmovaps -64(%rsp), %xmm3 vmovaps -48(%rsp), %xmm10 #APP vaesenc %xmm10, %xmm6, %xmm6 vaesenc %xmm10, %xmm14, %xmm14 vaesenc %xmm10, %xmm8, %xmm8 vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm10, %xmm2, %xmm2 vpclmulqdq $16, %xmm3, %xmm13, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $0, %xmm3, %xmm13, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $17, %xmm3, %xmm13, %xmm9 vpxor %xmm9, %xmm15, %xmm15 vpclmulqdq $1, %xmm3, %xmm13, %xmm9 vpxor %xmm4, %xmm9, %xmm4 #NO_APP vmovaps 160(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm2, %xmm2 #NO_APP vmovdqa64 %xmm30, %xmm10 vmovaps 144(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm2, %xmm2 vpclmulqdq $16, %xmm10, %xmm12, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $0, %xmm10, %xmm12, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $17, %xmm10, %xmm12, %xmm9 vpxor %xmm9, %xmm15, %xmm15 vpclmulqdq $1, %xmm10, %xmm12, %xmm9 vpxor %xmm4, %xmm9, %xmm4 #NO_APP vmovaps 128(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm2, %xmm2 #NO_APP vmovdqa64 %xmm16, %xmm10 vmovaps 16(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm2, %xmm2 vpclmulqdq $16, %xmm10, %xmm11, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $0, %xmm10, %xmm11, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $17, %xmm10, %xmm11, %xmm9 vpxor %xmm9, %xmm15, %xmm15 vpclmulqdq $1, %xmm10, %xmm11, %xmm9 vpxor %xmm4, %xmm9, %xmm4 #NO_APP vmovaps 112(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm2, %xmm2 #NO_APP vmovdqa64 %xmm19, %xmm3 #APP vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm2, %xmm2 #NO_APP vmovdqa64 %xmm26, %xmm3 vmovaps %xmm25, %xmm10 vmovdqa64 %xmm18, %xmm11 #APP vaesenc %xmm10, %xmm6, %xmm6 vaesenc %xmm10, %xmm14, %xmm14 vaesenc %xmm10, %xmm8, %xmm8 vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm10, %xmm2, %xmm2 vpclmulqdq $16, %xmm3, %xmm11, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $0, %xmm3, %xmm11, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $17, %xmm3, %xmm11, %xmm9 vpxor %xmm9, %xmm15, %xmm15 vpclmulqdq $1, %xmm3, %xmm11, %xmm9 vpxor %xmm4, %xmm9, %xmm4 #NO_APP vmovaps 96(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm2, %xmm2 #NO_APP vmovdqa64 %xmm17, %xmm10 vmovaps %xmm27, %xmm3 vmovapd %xmm23, %xmm11 #APP vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm2, %xmm2 vpclmulqdq $16, %xmm10, %xmm11, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $0, %xmm10, %xmm11, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $17, %xmm10, %xmm11, %xmm9 vpxor %xmm9, %xmm15, %xmm15 vpclmulqdq $1, %xmm10, %xmm11, %xmm9 vpxor %xmm4, %xmm9, %xmm4 #NO_APP vpxorq %xmm1, %xmm22, %xmm1 vmovaps %xmm20, %xmm3 #APP vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm2, %xmm2 #NO_APP vmovdqa64 %xmm29, %xmm3 vmovdqa64 %xmm24, %xmm10 #APP vaesenc %xmm10, %xmm6, %xmm6 vaesenc %xmm10, %xmm14, %xmm14 vaesenc %xmm10, %xmm8, %xmm8 vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm10, %xmm2, %xmm2 vpclmulqdq $16, %xmm3, %xmm1, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $0, %xmm3, %xmm1, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $17, %xmm3, %xmm1, %xmm9 vpxor %xmm9, %xmm15, %xmm15 vpclmulqdq $1, %xmm3, %xmm1, %xmm9 vpxor %xmm4, %xmm9, %xmm4 #NO_APP vpxor %xmm3, %xmm3, %xmm3 vpunpcklqdq %xmm4, %xmm3, %xmm1 vpunpckhqdq %xmm3, %xmm4, %xmm4 vpxor %xmm4, %xmm15, %xmm4 vmovaps 32(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm2, %xmm2 #NO_APP vmovapd %xmm28, %xmm3 #APP vaesenclast %xmm3, %xmm6, %xmm6 vaesenclast %xmm3, %xmm14, %xmm14 vaesenclast %xmm3, %xmm8, %xmm8 vaesenclast %xmm3, %xmm7, %xmm7 vaesenclast %xmm3, %xmm0, %xmm0 vaesenclast %xmm3, %xmm2, %xmm2 #NO_APP vpxor %xmm1, %xmm5, %xmm1 vpshufd $78, %xmm1, %xmm5 vpbroadcastq .LCPI2_13(%rip), %xmm9 vpclmulqdq $16, %xmm9, %xmm1, %xmm1 vpxor %xmm5, %xmm1, %xmm1 vpxorq (%rcx), %xmm6, %xmm22 vpclmulqdq $16, %xmm9, %xmm1, %xmm5 vpshufd $78, %xmm1, %xmm1 vxorpd 16(%rcx), %xmm14, %xmm9 vpxor 32(%rcx), %xmm8, %xmm10 vpxor 48(%rcx), %xmm7, %xmm11 vpxor 64(%rcx), %xmm0, %xmm12 vpxor 80(%rcx), %xmm2, %xmm13 vpternlogq $150, %xmm5, %xmm4, %xmm1 addq $96, %rcx vmovdqu64 %xmm22, (%rax) vmovupd %xmm9, 16(%rax) vmovdqu %xmm10, 32(%rax) vmovdqu %xmm11, 48(%rax) vmovdqu %xmm12, 64(%rax) vmovdqu %xmm13, 80(%rax) addq $96, %rax addq $-96, %r10 vmovdqa64 %xmm21, %xmm23 vpaddd .LCPI2_15(%rip), %xmm21, %xmm21 cmpq $95, %r10 ja .LBB2_31 vpbroadcastq .LCPI2_13(%rip), %xmm8 vmovdqa64 112(%rsp), %xmm27 vmovdqa 96(%rsp), %xmm14 vmovdqa64 %xmm17, %xmm15 vmovdqa64 224(%rsp), %xmm28 vmovdqa64 208(%rsp), %xmm25 vmovdqa64 192(%rsp), %xmm17 vmovdqa64 176(%rsp), %xmm18 vmovapd -64(%rsp), %xmm3 jmp .LBB2_29 .LBB2_12: vmovdqa64 %xmm13, %xmm27 vmovdqa -32(%rsp), %xmm7 vmovdqa -128(%rsp), %xmm6 vmovdqa64 %xmm26, %xmm21 vmovdqa64 %xmm29, %xmm5 jmp .LBB2_13 .LBB2_28: vmovdqa64 %xmm2, %xmm27 vmovdqa %xmm0, %xmm14 vpbroadcastq .LCPI2_13(%rip), %xmm8 .LBB2_29: vpclmulqdq $0, %xmm13, %xmm3, %xmm0 vpclmulqdq $1, %xmm13, %xmm3, %xmm2 vpclmulqdq $16, %xmm13, %xmm3, %xmm4 vpxor %xmm2, %xmm4, %xmm2 vmovdqa -16(%rsp), %xmm6 vpclmulqdq $1, %xmm12, %xmm6, %xmm4 vpclmulqdq $16, %xmm12, %xmm6, %xmm5 vpternlogq $150, %xmm4, %xmm2, %xmm5 vpclmulqdq $0, %xmm12, %xmm6, %xmm2 vmovdqa 80(%rsp), %xmm7 vpclmulqdq $0, %xmm11, %xmm7, %xmm4 vpternlogq $150, %xmm0, %xmm2, %xmm4 vpclmulqdq $1, %xmm11, %xmm7, %xmm0 vpclmulqdq $16, %xmm11, %xmm7, %xmm2 vpternlogq $150, %xmm0, %xmm5, %xmm2 vpclmulqdq $17, %xmm12, %xmm6, %xmm0 vpclmulqdq $17, %xmm11, %xmm7, %xmm5 vpclmulqdq $17, %xmm13, %xmm3, %xmm6 vpternlogq $150, %xmm6, %xmm0, %xmm5 vmovdqa 48(%rsp), %xmm7 vpclmulqdq $1, %xmm10, %xmm7, %xmm0 vpclmulqdq $16, %xmm10, %xmm7, %xmm6 vpternlogq $150, %xmm0, %xmm2, %xmm6 vpclmulqdq $0, %xmm10, %xmm7, %xmm0 vpclmulqdq $0, %xmm9, %xmm15, %xmm2 vpternlogq $150, %xmm0, %xmm4, %xmm2 vpclmulqdq $1, %xmm9, %xmm15, %xmm0 vpclmulqdq $16, %xmm9, %xmm15, %xmm4 vpternlogq $150, %xmm0, %xmm6, %xmm4 vpclmulqdq $17, %xmm10, %xmm7, %xmm0 vpclmulqdq $17, %xmm9, %xmm15, %xmm6 vpxorq %xmm1, %xmm22, %xmm1 vpternlogq $150, %xmm0, %xmm5, %xmm6 vmovdqa 64(%rsp), %xmm7 vpclmulqdq $1, %xmm1, %xmm7, %xmm0 vpclmulqdq $16, %xmm1, %xmm7, %xmm5 vpternlogq $150, %xmm0, %xmm4, %xmm5 vpclmulqdq $0, %xmm1, %xmm7, %xmm0 vpslldq $8, %xmm5, %xmm4 vpternlogq $150, %xmm0, %xmm2, %xmm4 vpclmulqdq $17, %xmm1, %xmm7, %xmm0 vpclmulqdq $16, %xmm8, %xmm4, %xmm1 vpshufd $78, %xmm4, %xmm2 vpxor %xmm2, %xmm1, %xmm2 vpclmulqdq $16, %xmm8, %xmm2, %xmm1 vpternlogq $150, %xmm0, %xmm6, %xmm1 vpsrldq $8, %xmm5, %xmm0 vpshufd $78, %xmm2, %xmm2 vpternlogq $150, %xmm0, %xmm2, %xmm1 movq %rax, %rdx movq %rcx, %r9 vmovdqa64 %xmm21, %xmm23 vmovdqa64 160(%rsp), %xmm21 vmovapd 144(%rsp), %xmm12 vmovapd 128(%rsp), %xmm10 vmovdqa 16(%rsp), %xmm8 vmovdqa -32(%rsp), %xmm7 vmovdqa -128(%rsp), %xmm6 vmovdqa %xmm14, %xmm5 .LBB2_13: vmovdqa64 %xmm8, %xmm29 vmovapd %xmm10, %xmm26 vmovapd %xmm12, %xmm22 vpunpcklqdq %xmm17, %xmm18, %xmm17 cmpq $16, %r10 jb .LBB2_14 vpmovsxbq .LCPI2_23(%rip), %xmm30 vmovdqa64 -96(%rsp), %xmm16 vmovdqa64 -112(%rsp), %xmm19 vmovdqa -80(%rsp), %xmm15 vmovdqa 32(%rsp), %xmm9 vmovdqa -48(%rsp), %xmm11 vmovdqa64 %xmm31, %xmm18 vmovdqa (%rsp), %xmm13 vmovdqa64 %xmm21, %xmm12 vmovapd %xmm22, %xmm10 vmovapd %xmm26, %xmm8 vmovdqa64 %xmm29, %xmm2 vmovdqa64 %xmm27, %xmm0 vpbroadcastq .LCPI2_13(%rip), %xmm3 vmovdqa -64(%rsp), %xmm14 .p2align 4, 0x90 .LBB2_34: vpxorq %xmm18, %xmm23, %xmm4 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm10, %xmm4, %xmm4 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm2, %xmm4, %xmm4 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm5, %xmm4, %xmm4 vmovdqa64 %xmm16, %xmm6 vaesenc %xmm6, %xmm4, %xmm4 vmovdqa64 %xmm19, %xmm6 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm15, %xmm4, %xmm4 vaesenc %xmm9, %xmm4, %xmm4 vaesenclast %xmm13, %xmm4, %xmm4 vmovdqa64 %xmm5, %xmm24 vpxor (%r9), %xmm4, %xmm5 vpxor %xmm1, %xmm5, %xmm1 vpclmulqdq $1, %xmm1, %xmm14, %xmm4 vpclmulqdq $16, %xmm1, %xmm14, %xmm6 vpxor %xmm4, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm14, %xmm4 vpclmulqdq $17, %xmm1, %xmm14, %xmm1 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpxor %xmm1, %xmm7, %xmm1 vpshufd $78, %xmm4, %xmm7 leaq 16(%r9), %rcx leaq 16(%rdx), %rax addq $-16, %r10 vpaddd %xmm30, %xmm23, %xmm4 vmovdqu %xmm5, (%rdx) vpsrldq $8, %xmm6, %xmm5 vmovdqa -128(%rsp), %xmm6 vpternlogq $150, %xmm5, %xmm7, %xmm1 vmovdqa64 %xmm24, %xmm5 vmovdqa -32(%rsp), %xmm7 movq %rax, %rdx vmovdqa64 %xmm4, %xmm23 movq %rcx, %r9 cmpq $15, %r10 ja .LBB2_34 vpunpcklqdq %xmm28, %xmm25, %xmm18 vpsllq $3, %xmm17, %xmm17 testq %r10, %r10 je .LBB2_16 .LBB2_35: movl $-1, %edx bzhil %r10d, %edx, %edx kmovd %edx, %k1 vmovdqa %xmm5, %xmm0 vmovdqu8 (%rcx), %xmm5 {%k1} {z} vmovdqa64 %xmm31, %xmm2 vpxorq %xmm31, %xmm4, %xmm4 vmovdqa -48(%rsp), %xmm3 vmovdqa64 %xmm3, %xmm16 vaesenc %xmm3, %xmm4, %xmm4 vmovdqa64 %xmm21, %xmm12 vaesenc %xmm12, %xmm4, %xmm4 vmovapd %xmm22, %xmm14 vaesenc %xmm14, %xmm4, %xmm4 vmovapd %xmm26, %xmm10 vaesenc %xmm10, %xmm4, %xmm4 vmovdqa64 %xmm29, %xmm8 vaesenc %xmm8, %xmm4, %xmm4 vmovdqa64 %xmm27, %xmm11 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm0, %xmm4, %xmm4 vmovdqa -96(%rsp), %xmm3 vmovdqa64 %xmm3, %xmm23 vaesenc %xmm3, %xmm4, %xmm4 vmovdqa -112(%rsp), %xmm3 vmovdqa64 %xmm3, %xmm19 vaesenc %xmm3, %xmm4, %xmm4 vmovdqa -80(%rsp), %xmm15 vaesenc %xmm15, %xmm4, %xmm4 vmovdqa 32(%rsp), %xmm9 vaesenc %xmm9, %xmm4, %xmm4 vmovdqa (%rsp), %xmm3 vmovdqa64 %xmm3, %xmm20 vaesenclast %xmm3, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vmovdqu8 %xmm4, (%rax) {%k1} vmovdqu8 (%rax), %xmm4 {%k1} {z} vpxor %xmm4, %xmm1, %xmm1 vmovdqa -64(%rsp), %xmm3 vpclmulqdq $1, %xmm1, %xmm3, %xmm4 vpclmulqdq $16, %xmm1, %xmm3, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $0, %xmm1, %xmm3, %xmm5 vpclmulqdq $17, %xmm1, %xmm3, %xmm1 vpslldq $8, %xmm4, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpshufd $78, %xmm5, %xmm6 vpbroadcastq .LCPI2_13(%rip), %xmm13 vpclmulqdq $16, %xmm13, %xmm5, %xmm5 vpxor %xmm6, %xmm5, %xmm5 vpshufd $78, %xmm5, %xmm6 vpclmulqdq $16, %xmm13, %xmm5, %xmm5 vpxor %xmm1, %xmm5, %xmm1 vmovdqa %xmm0, %xmm5 vpsrldq $8, %xmm4, %xmm4 vpternlogq $150, %xmm4, %xmm6, %xmm1 vmovdqa -128(%rsp), %xmm6 jmp .LBB2_36 .LBB2_14: movq %rdx, %rax movq %r9, %rcx vmovdqa64 %xmm23, %xmm4 vpunpcklqdq %xmm28, %xmm25, %xmm18 vpsllq $3, %xmm17, %xmm17 testq %r10, %r10 jne .LBB2_35 .LBB2_16: vmovdqa64 -96(%rsp), %xmm23 vmovdqa64 -112(%rsp), %xmm19 vmovdqa -80(%rsp), %xmm15 vmovdqa 32(%rsp), %xmm9 vmovdqa64 -48(%rsp), %xmm16 vmovdqa64 %xmm31, %xmm2 vmovdqa64 (%rsp), %xmm20 vmovdqa64 %xmm21, %xmm12 vmovapd %xmm22, %xmm14 vmovapd %xmm26, %xmm10 vmovdqa64 %xmm29, %xmm8 vmovdqa64 %xmm27, %xmm11 vpbroadcastq .LCPI2_13(%rip), %xmm13 vmovdqa -64(%rsp), %xmm3 .LBB2_36: vpxorq %xmm17, %xmm1, %xmm0 vpclmulqdq $1, %xmm0, %xmm3, %xmm1 vpclmulqdq $16, %xmm0, %xmm3, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $0, %xmm0, %xmm3, %xmm4 vpclmulqdq $17, %xmm0, %xmm3, %xmm0 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpshufd $78, %xmm3, %xmm4 vpclmulqdq $16, %xmm13, %xmm3, %xmm3 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm13, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpternlogq $150, %xmm18, %xmm0, %xmm4 vpsrldq $8, %xmm1, %xmm0 vpternlogq $150, %xmm0, %xmm3, %xmm4 vpternlogq $120, .LCPI2_21(%rip), %xmm4, %xmm2 vmovdqa64 %xmm16, %xmm0 vaesenc %xmm0, %xmm2, %xmm0 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm14, %xmm0, %xmm0 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm5, %xmm0, %xmm0 vmovdqa64 %xmm23, %xmm1 vaesenc %xmm1, %xmm0, %xmm0 vmovdqa64 %xmm19, %xmm1 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm15, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vmovdqa64 %xmm20, %xmm1 vaesenclast %xmm1, %xmm0, %xmm0 vpxor 240(%rsp), %xmm0, %xmm0 xorl %eax, %eax vptest %xmm0, %xmm0 sete %al .LBB2_37: addq $264, %rsp .cfi_def_cfa_offset 8 retq .Lfunc_end2: .size haberdashery_aes256gcmsiv_skylakex_decrypt, .Lfunc_end2-haberdashery_aes256gcmsiv_skylakex_decrypt .cfi_endproc .section .text.haberdashery_aes256gcmsiv_skylakex_is_supported,"ax",@progbits .globl haberdashery_aes256gcmsiv_skylakex_is_supported .p2align 4, 0x90 .type haberdashery_aes256gcmsiv_skylakex_is_supported,@function haberdashery_aes256gcmsiv_skylakex_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $-779157207, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end3: .size haberdashery_aes256gcmsiv_skylakex_is_supported, .Lfunc_end3-haberdashery_aes256gcmsiv_skylakex_is_supported .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
71,836
asm/aes256gcm_streaming_skylake.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI0_1: .quad 4294967297 .quad 4294967297 .LCPI0_8: .quad 274877907008 .quad 274877907008 .LCPI0_9: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI0_10: .zero 8 .quad -4467570830351532032 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI0_2: .long 0x00000002 .LCPI0_3: .long 0x0c0f0e0d .LCPI0_4: .long 0x00000004 .LCPI0_5: .long 0x00000008 .LCPI0_6: .long 0x00000010 .LCPI0_7: .long 0x00000020 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_11: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_streaming_skylake_init_key,"ax",@progbits .globl haberdashery_aes256gcm_streaming_skylake_init_key .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_skylake_init_key,@function haberdashery_aes256gcm_streaming_skylake_init_key: .cfi_startproc cmpq $32, %rdx jne .LBB0_2 pushq %rax .cfi_def_cfa_offset 16 vmovdqu (%rsi), %xmm5 vmovdqu 16(%rsi), %xmm4 vpslldq $4, %xmm5, %xmm0 vpslldq $8, %xmm5, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm5, %xmm1 vpbroadcastd .LCPI0_3(%rip), %xmm2 vpshufb %xmm2, %xmm4, %xmm3 vaesenclast .LCPI0_1(%rip), %xmm3, %xmm3 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm8 vmovdqa %xmm8, -16(%rsp) vaesenc %xmm4, %xmm5, %xmm15 vpslldq $4, %xmm4, %xmm0 vpslldq $8, %xmm4, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm4, %xmm1 vpxor %xmm1, %xmm0, %xmm1 vpshufd $255, %xmm8, %xmm3 vpxor %xmm0, %xmm0, %xmm0 vaesenclast %xmm0, %xmm3, %xmm3 vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm9 vmovdqa %xmm9, -32(%rsp) vbroadcastss .LCPI0_2(%rip), %xmm3 vbroadcastss .LCPI0_3(%rip), %xmm1 #APP vaesenc %xmm8, %xmm15, %xmm15 vpslldq $4, %xmm8, %xmm6 vpslldq $8, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpslldq $12, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpshufb %xmm1, %xmm9, %xmm10 vaesenclast %xmm3, %xmm10, %xmm10 vpxor %xmm6, %xmm10, %xmm10 #NO_APP vmovaps %xmm10, %xmm8 vmovaps %xmm10, -48(%rsp) #APP vaesenc %xmm9, %xmm15, %xmm15 vpslldq $4, %xmm9, %xmm3 vpslldq $8, %xmm9, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpslldq $12, %xmm9, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpxor %xmm3, %xmm9, %xmm3 vpshufd $255, %xmm10, %xmm7 vaesenclast %xmm0, %xmm7, %xmm7 vpxor %xmm3, %xmm7, %xmm7 #NO_APP vbroadcastss .LCPI0_4(%rip), %xmm3 vmovaps %xmm7, %xmm9 vmovaps %xmm7, -64(%rsp) #APP vaesenc %xmm8, %xmm15, %xmm15 vpslldq $4, %xmm8, %xmm6 vpslldq $8, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpslldq $12, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpshufb %xmm1, %xmm9, %xmm10 vaesenclast %xmm3, %xmm10, %xmm10 vpxor %xmm6, %xmm10, %xmm10 #NO_APP vmovaps %xmm10, %xmm7 vmovaps %xmm10, -80(%rsp) #APP vaesenc %xmm9, %xmm15, %xmm15 vpslldq $4, %xmm9, %xmm3 vpslldq $8, %xmm9, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpslldq $12, %xmm9, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpxor %xmm3, %xmm9, %xmm3 vpshufd $255, %xmm10, %xmm8 vaesenclast %xmm0, %xmm8, %xmm8 vpxor %xmm3, %xmm8, %xmm8 #NO_APP vmovaps %xmm8, -96(%rsp) vbroadcastss .LCPI0_5(%rip), %xmm3 #APP vaesenc %xmm7, %xmm15, %xmm15 vpslldq $4, %xmm7, %xmm6 vpslldq $8, %xmm7, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpslldq $12, %xmm7, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpxor %xmm7, %xmm6, %xmm6 vpshufb %xmm1, %xmm8, %xmm10 vaesenclast %xmm3, %xmm10, %xmm10 vpxor %xmm6, %xmm10, %xmm10 #NO_APP vmovaps %xmm10, %xmm7 vmovaps %xmm10, -112(%rsp) #APP vaesenc %xmm8, %xmm15, %xmm15 vpslldq $4, %xmm8, %xmm3 vpslldq $8, %xmm8, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpslldq $12, %xmm8, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpxor %xmm3, %xmm8, %xmm3 vpshufd $255, %xmm10, %xmm9 vaesenclast %xmm0, %xmm9, %xmm9 vpxor %xmm3, %xmm9, %xmm9 #NO_APP vbroadcastss .LCPI0_6(%rip), %xmm3 #APP vaesenc %xmm7, %xmm15, %xmm15 vpslldq $4, %xmm7, %xmm6 vpslldq $8, %xmm7, %xmm11 vpxor %xmm6, %xmm11, %xmm6 vpslldq $12, %xmm7, %xmm11 vpxor %xmm6, %xmm11, %xmm6 vpxor %xmm7, %xmm6, %xmm6 vpshufb %xmm1, %xmm9, %xmm10 vaesenclast %xmm3, %xmm10, %xmm10 vpxor %xmm6, %xmm10, %xmm10 #NO_APP #APP vaesenc %xmm9, %xmm15, %xmm15 vpslldq $4, %xmm9, %xmm3 vpslldq $8, %xmm9, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpslldq $12, %xmm9, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpxor %xmm3, %xmm9, %xmm3 vpshufd $255, %xmm10, %xmm11 vaesenclast %xmm0, %xmm11, %xmm11 vpxor %xmm3, %xmm11, %xmm11 #NO_APP vbroadcastss .LCPI0_7(%rip), %xmm3 #APP vaesenc %xmm10, %xmm15, %xmm15 vpslldq $4, %xmm10, %xmm6 vpslldq $8, %xmm10, %xmm13 vpxor %xmm6, %xmm13, %xmm6 vpslldq $12, %xmm10, %xmm13 vpxor %xmm6, %xmm13, %xmm6 vpxor %xmm6, %xmm10, %xmm6 vpshufb %xmm1, %xmm11, %xmm12 vaesenclast %xmm3, %xmm12, %xmm12 vpxor %xmm6, %xmm12, %xmm12 #NO_APP vpslldq $4, %xmm11, %xmm1 vpunpcklqdq %xmm11, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vinsertps $55, %xmm11, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpshufd $255, %xmm12, %xmm3 vaesenclast %xmm0, %xmm3, %xmm3 vpxor %xmm1, %xmm11, %xmm1 vpxor %xmm1, %xmm3, %xmm13 vpslldq $4, %xmm12, %xmm1 vpunpcklqdq %xmm12, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vinsertps $55, %xmm12, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpshufb %xmm2, %xmm13, %xmm2 vaesenclast .LCPI0_8(%rip), %xmm2, %xmm2 vpxor %xmm1, %xmm12, %xmm1 vpxor %xmm1, %xmm2, %xmm2 vmovdqa %xmm2, -128(%rsp) vaesenc %xmm11, %xmm15, %xmm1 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm13, %xmm1, %xmm1 vaesenclast %xmm2, %xmm1, %xmm1 vpshufb .LCPI0_9(%rip), %xmm1, %xmm1 vpsrlq $63, %xmm1, %xmm2 vpaddq %xmm1, %xmm1, %xmm1 vpshufd $78, %xmm2, %xmm3 vpor %xmm3, %xmm1, %xmm1 vpblendd $12, %xmm2, %xmm0, %xmm0 vpsllq $63, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpsllq $62, %xmm0, %xmm2 vpsllq $57, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpxor %xmm0, %xmm1, %xmm15 vpclmulqdq $0, %xmm15, %xmm15, %xmm0 vpbroadcastq .LCPI0_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $17, %xmm15, %xmm15, %xmm1 vpshufd $78, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm2, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm1 vpclmulqdq $16, %xmm15, %xmm1, %xmm0 vpclmulqdq $1, %xmm15, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $0, %xmm15, %xmm1, %xmm3 vpslldq $8, %xmm0, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm3, %xmm6 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm6, %xmm3 vpsrldq $8, %xmm0, %xmm0 vpclmulqdq $17, %xmm15, %xmm1, %xmm6 vpxor %xmm0, %xmm6, %xmm0 vpshufd $78, %xmm3, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $16, %xmm2, %xmm3, %xmm3 vpxor %xmm3, %xmm0, %xmm3 vpclmulqdq $0, %xmm3, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm6 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm6, %xmm0 vpclmulqdq $17, %xmm3, %xmm3, %xmm6 vpshufd $78, %xmm0, %xmm14 vpxor %xmm6, %xmm14, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm1, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm14 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm0 vpclmulqdq $17, %xmm1, %xmm1, %xmm14 vpshufd $78, %xmm0, %xmm7 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $16, %xmm2, %xmm0, %xmm0 vpxor %xmm0, %xmm7, %xmm0 vpclmulqdq $16, %xmm15, %xmm0, %xmm7 vpclmulqdq $1, %xmm15, %xmm0, %xmm14 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $0, %xmm15, %xmm0, %xmm14 vpslldq $8, %xmm7, %xmm8 vpxor %xmm8, %xmm14, %xmm8 vpclmulqdq $16, %xmm2, %xmm8, %xmm14 vpshufd $78, %xmm8, %xmm8 vpxor %xmm8, %xmm14, %xmm8 vpsrldq $8, %xmm7, %xmm7 vpclmulqdq $17, %xmm15, %xmm0, %xmm14 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $16, %xmm2, %xmm8, %xmm2 vpshufd $78, %xmm8, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor %xmm2, %xmm7, %xmm2 vmovdqa %xmm5, (%rdi) vmovdqa %xmm4, 16(%rdi) vmovaps -16(%rsp), %xmm4 vmovaps %xmm4, 32(%rdi) vmovaps -32(%rsp), %xmm4 vmovaps %xmm4, 48(%rdi) vmovaps -48(%rsp), %xmm4 vmovaps %xmm4, 64(%rdi) vmovaps -64(%rsp), %xmm4 vmovaps %xmm4, 80(%rdi) vmovaps -80(%rsp), %xmm4 vmovaps %xmm4, 96(%rdi) vmovaps -96(%rsp), %xmm4 vmovaps %xmm4, 112(%rdi) vmovaps -112(%rsp), %xmm4 vmovaps %xmm4, 128(%rdi) vmovaps %xmm9, 144(%rdi) vmovaps %xmm10, 160(%rdi) vmovaps %xmm11, 176(%rdi) vmovaps %xmm12, 192(%rdi) vmovdqa %xmm13, 208(%rdi) vmovaps -128(%rsp), %xmm4 vmovaps %xmm4, 224(%rdi) vmovdqa %xmm15, 240(%rdi) vmovdqa %xmm1, 256(%rdi) vmovdqa %xmm3, 272(%rdi) vmovdqa %xmm0, 288(%rdi) vmovdqa %xmm2, 304(%rdi) vmovdqa %xmm6, 320(%rdi) addq $8, %rsp .cfi_def_cfa_offset 8 .LBB0_2: xorl %eax, %eax cmpq $32, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes256gcm_streaming_skylake_init_key, .Lfunc_end0-haberdashery_aes256gcm_streaming_skylake_init_key .cfi_endproc .section .text.haberdashery_aes256gcm_streaming_skylake_is_supported,"ax",@progbits .globl haberdashery_aes256gcm_streaming_skylake_is_supported .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_skylake_is_supported,@function haberdashery_aes256gcm_streaming_skylake_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $9175337, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end1: .size haberdashery_aes256gcm_streaming_skylake_is_supported, .Lfunc_end1-haberdashery_aes256gcm_streaming_skylake_is_supported .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_1: .long 1 .long 0 .long 0 .long 0 .section .text.haberdashery_aes256gcm_streaming_skylake_init_state,"ax",@progbits .globl haberdashery_aes256gcm_streaming_skylake_init_state .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_skylake_init_state,@function haberdashery_aes256gcm_streaming_skylake_init_state: .cfi_startproc cmpq $12, %rcx jne .LBB2_2 vmovd (%rdx), %xmm0 vpinsrd $1, 4(%rdx), %xmm0, %xmm0 vpinsrd $2, 8(%rdx), %xmm0, %xmm0 movl $16777216, %eax vpinsrd $3, %eax, %xmm0, %xmm0 vpshufb .LCPI2_0(%rip), %xmm0, %xmm1 vpaddd .LCPI2_1(%rip), %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmovups %ymm2, -56(%rsp) vmovups %ymm2, -88(%rsp) movq $0, -24(%rsp) vxorps %xmm2, %xmm2, %xmm2 vmovaps %xmm2, (%rdi) vmovdqa %xmm0, 16(%rdi) vmovdqa %xmm1, 32(%rdi) vmovups -56(%rsp), %ymm0 vmovups -40(%rsp), %xmm1 movq -24(%rsp), %rax movq -16(%rsp), %rdx vmovups %ymm0, 48(%rdi) vmovups %xmm1, 64(%rdi) movq %rax, 80(%rdi) movq %rdx, 88(%rdi) vmovaps %xmm2, 96(%rdi) .LBB2_2: xorl %eax, %eax cmpq $12, %rcx sete %al vzeroupper retq .Lfunc_end2: .size haberdashery_aes256gcm_streaming_skylake_init_state, .Lfunc_end2-haberdashery_aes256gcm_streaming_skylake_init_state .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI3_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI3_1: .zero 8 .quad -4467570830351532032 .LCPI3_2: .zero 16 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI3_3: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_streaming_skylake_aad_update,"ax",@progbits .globl haberdashery_aes256gcm_streaming_skylake_aad_update .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_skylake_aad_update,@function haberdashery_aes256gcm_streaming_skylake_aad_update: .cfi_startproc movabsq $-2305843009213693951, %rax leaq (%rcx,%rax), %r8 incq %rax cmpq %rax, %r8 jae .LBB3_3 xorl %eax, %eax retq .LBB3_3: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $24, %rsp .cfi_def_cfa_offset 80 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 96(%rdi), %r14 addq %rcx, %r14 xorl %eax, %eax movabsq $2305843009213693950, %r8 cmpq %r8, %r14 ja .LBB3_26 cmpq $0, 104(%rdi) jne .LBB3_26 movq 80(%rdi), %r8 testq %r8, %r8 je .LBB3_6 leaq (%r8,%rcx), %rbx cmpq $15, %rbx ja .LBB3_9 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%r8), %rax movq %rdi, %r15 movq %rax, %rdi movq %rdx, %rsi movq %rcx, %rdx movq %rcx, %r12 callq *memcpy@GOTPCREL(%rip) movq %r15, %rdi movq %r12, %rcx vmovdqa 64(%r15), %xmm0 vpxor (%rsp), %xmm0, %xmm0 jmp .LBB3_24 .LBB3_6: movq %rcx, %rbx cmpq $96, %rbx jae .LBB3_11 jmp .LBB3_14 .LBB3_9: vmovaps 64(%rdi), %xmm0 vmovaps %xmm0, (%rsp) movl $16, %eax subq %r8, %rax addq %rsp, %r8 leaq (%rdx,%rax), %r15 movq %rcx, %rbx subq %rax, %rbx movq %rdi, %r12 movq %r8, %rdi movq %rsi, %r13 movq %rdx, %rsi movq %rax, %rdx movq %rcx, %rbp callq *memcpy@GOTPCREL(%rip) movq %r13, %rsi movq %r12, %rdi movq %rbp, %rcx movq $0, 80(%r12) vmovdqa (%rsp), %xmm0 vmovdqa 240(%r13), %xmm1 vpshufb .LCPI3_0(%rip), %xmm0, %xmm0 vpxor (%r12), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI3_3(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%r12) movq %r15, %rdx cmpq $96, %rbx jb .LBB3_14 .LBB3_11: vmovdqu 32(%rdx), %xmm1 vmovdqu 48(%rdx), %xmm2 vmovdqu 64(%rdx), %xmm3 vmovdqu 80(%rdx), %xmm4 vmovdqa .LCPI3_0(%rip), %xmm0 vpshufb %xmm0, %xmm1, %xmm6 vpshufb %xmm0, %xmm2, %xmm5 vpshufb %xmm0, %xmm3, %xmm7 vpshufb %xmm0, %xmm4, %xmm8 vmovdqa 240(%rsi), %xmm1 vmovdqa 256(%rsi), %xmm2 vmovdqa 272(%rsi), %xmm3 vmovdqa 288(%rsi), %xmm4 vpclmulqdq $0, %xmm8, %xmm1, %xmm9 vpclmulqdq $1, %xmm8, %xmm1, %xmm10 vpclmulqdq $16, %xmm8, %xmm1, %xmm11 vpxor %xmm10, %xmm11, %xmm10 vpclmulqdq $17, %xmm8, %xmm1, %xmm8 vpclmulqdq $0, %xmm7, %xmm2, %xmm11 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $1, %xmm7, %xmm2, %xmm11 vpclmulqdq $16, %xmm7, %xmm2, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpclmulqdq $17, %xmm7, %xmm2, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm5, %xmm3, %xmm8 vpclmulqdq $1, %xmm5, %xmm3, %xmm11 vpclmulqdq $16, %xmm5, %xmm3, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpclmulqdq $0, %xmm6, %xmm4, %xmm12 vpxor %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $1, %xmm6, %xmm4, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vmovdqu 16(%rdx), %xmm11 vpshufb %xmm0, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm3, %xmm5 vpxor %xmm9, %xmm10, %xmm9 vpclmulqdq $17, %xmm6, %xmm4, %xmm10 vpxor %xmm5, %xmm10, %xmm10 vmovdqa 304(%rsi), %xmm5 vpclmulqdq $16, %xmm6, %xmm4, %xmm6 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $0, %xmm11, %xmm5, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $1, %xmm11, %xmm5, %xmm10 vpxor %xmm6, %xmm10, %xmm6 vpclmulqdq $16, %xmm11, %xmm5, %xmm10 vpxor %xmm6, %xmm10, %xmm6 vmovdqu (%rdx), %xmm10 vpshufb %xmm0, %xmm10, %xmm10 vpxor (%rdi), %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vmovdqa 320(%rsi), %xmm6 vpclmulqdq $17, %xmm11, %xmm5, %xmm11 vpxor %xmm7, %xmm11, %xmm7 vpclmulqdq $0, %xmm10, %xmm6, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $1, %xmm10, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $16, %xmm10, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $17, %xmm10, %xmm6, %xmm10 vpxor %xmm7, %xmm10, %xmm10 addq $96, %rdx addq $-96, %rbx cmpq $96, %rbx jb .LBB3_13 .p2align 4, 0x90 .LBB3_12: vmovdqu (%rdx), %xmm11 vmovdqu 32(%rdx), %xmm12 vmovdqu 48(%rdx), %xmm13 vmovdqu 64(%rdx), %xmm14 vmovdqu 80(%rdx), %xmm15 vpslldq $8, %xmm9, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpsrldq $8, %xmm9, %xmm8 vpxor %xmm8, %xmm10, %xmm8 vpbroadcastq .LCPI3_3(%rip), %xmm10 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpshufb %xmm0, %xmm11, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor %xmm7, %xmm9, %xmm10 vpshufb %xmm0, %xmm12, %xmm8 vpshufb %xmm0, %xmm13, %xmm7 vpshufb %xmm0, %xmm14, %xmm9 vpshufb %xmm0, %xmm15, %xmm11 vpclmulqdq $0, %xmm11, %xmm1, %xmm12 vpclmulqdq $1, %xmm11, %xmm1, %xmm13 vpclmulqdq $16, %xmm11, %xmm1, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $17, %xmm11, %xmm1, %xmm11 vpclmulqdq $0, %xmm9, %xmm2, %xmm14 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $1, %xmm9, %xmm2, %xmm14 vpclmulqdq $16, %xmm9, %xmm2, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpclmulqdq $17, %xmm9, %xmm2, %xmm9 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $0, %xmm7, %xmm3, %xmm11 vpclmulqdq $1, %xmm7, %xmm3, %xmm14 vpclmulqdq $16, %xmm7, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $0, %xmm8, %xmm4, %xmm15 vpxor %xmm15, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $1, %xmm8, %xmm4, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $17, %xmm7, %xmm3, %xmm7 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm8, %xmm4, %xmm13 vpxor %xmm7, %xmm13, %xmm7 vmovdqu 16(%rdx), %xmm13 vpshufb %xmm0, %xmm13, %xmm13 vpclmulqdq $16, %xmm8, %xmm4, %xmm8 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm13, %xmm5, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $1, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $16, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpxor %xmm8, %xmm12, %xmm11 vpclmulqdq $17, %xmm13, %xmm5, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm10, %xmm6, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $1, %xmm10, %xmm6, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $16, %xmm10, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $17, %xmm10, %xmm6, %xmm10 vpxor %xmm7, %xmm10, %xmm10 addq $96, %rdx addq $-96, %rbx cmpq $95, %rbx ja .LBB3_12 .LBB3_13: vpslldq $8, %xmm9, %xmm0 vpxor %xmm0, %xmm8, %xmm0 vpsrldq $8, %xmm9, %xmm1 vpxor %xmm1, %xmm10, %xmm1 vpbroadcastq .LCPI3_3(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vmovdqa %xmm0, (%rdi) .LBB3_14: cmpq $16, %rbx jae .LBB3_15 testq %rbx, %rbx jne .LBB3_23 jmp .LBB3_25 .LBB3_15: vmovdqa (%rdi), %xmm1 vmovdqa 240(%rsi), %xmm0 leaq -16(%rbx), %rax testb $16, %al jne .LBB3_17 vmovdqu (%rdx), %xmm2 addq $16, %rdx vpshufb .LCPI3_0(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpbroadcastq .LCPI3_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm3, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 movq %rax, %rbx .LBB3_17: cmpq $16, %rax jb .LBB3_21 vmovdqa .LCPI3_0(%rip), %xmm2 vpbroadcastq .LCPI3_3(%rip), %xmm3 .p2align 4, 0x90 .LBB3_19: vmovdqu (%rdx), %xmm4 vmovdqu 16(%rdx), %xmm5 vpshufb %xmm2, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 addq $32, %rdx addq $-32, %rbx vpshufb %xmm2, %xmm5, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm6, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $16, %xmm1, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm1 cmpq $15, %rbx ja .LBB3_19 movq %rbx, %rax .LBB3_21: vmovdqa %xmm1, (%rdi) movq %rax, %rbx testq %rbx, %rbx je .LBB3_25 .LBB3_23: vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rax movq %rdi, %r15 movq %rax, %rdi movq %rdx, %rsi movq %rbx, %rdx movq %rcx, %r12 callq *memcpy@GOTPCREL(%rip) movq %r15, %rdi movq %r12, %rcx vmovdqa (%rsp), %xmm0 vpxor %xmm1, %xmm1, %xmm1 vmovdqa %xmm1, 48(%r15) .LBB3_24: vmovdqa %xmm0, 64(%r15) movq %rbx, 80(%r15) .LBB3_25: movq %r14, 96(%rdi) movq %rcx, %rax .LBB3_26: addq $24, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp retq .Lfunc_end3: .size haberdashery_aes256gcm_streaming_skylake_aad_update, .Lfunc_end3-haberdashery_aes256gcm_streaming_skylake_aad_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI4_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI4_1: .zero 8 .quad -4467570830351532032 .LCPI4_2: .long 1 .long 0 .long 0 .long 0 .LCPI4_3: .long 2 .long 0 .long 0 .long 0 .LCPI4_4: .long 3 .long 0 .long 0 .long 0 .LCPI4_5: .long 4 .long 0 .long 0 .long 0 .LCPI4_6: .long 5 .long 0 .long 0 .long 0 .LCPI4_7: .long 6 .long 0 .long 0 .long 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI4_8: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_streaming_skylake_encrypt_update,"ax",@progbits .globl haberdashery_aes256gcm_streaming_skylake_encrypt_update .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_skylake_encrypt_update,@function haberdashery_aes256gcm_streaming_skylake_encrypt_update: .cfi_startproc cmpq %r9, %rcx jne .LBB4_3 movq %rcx, %rax movabsq $-68719476704, %rcx leaq (%rax,%rcx), %r9 incq %rcx cmpq %rcx, %r9 jb .LBB4_3 movq 104(%rdi), %rcx leaq (%rcx,%rax), %r11 movq %r11, %r9 shrq $5, %r9 cmpq $2147483646, %r9 jbe .LBB4_6 .LBB4_3: xorl %eax, %eax retq .LBB4_6: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $504, %rsp .cfi_def_cfa_offset 560 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 testq %rcx, %rcx setne %r9b movq 80(%rdi), %rcx testq %rcx, %rcx sete %r10b orb %r9b, %r10b je .LBB4_10 testq %rcx, %rcx je .LBB4_11 movq %r11, 48(%rsp) movq %rdi, %rbp leaq (%rcx,%rax), %rbx cmpq $15, %rbx ja .LBB4_12 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r14 movq memcpy@GOTPCREL(%rip), %r13 movq %r14, %rdi movq %rdx, %rsi movq %rax, %rdx movq %rax, %r15 movq %r8, %r12 callq *%r13 vmovdqa (%rsp), %xmm0 vpxor 64(%rbp), %xmm0, %xmm0 vmovdqa %xmm0, 64(%rbp) vmovdqa %xmm0, (%rsp) movq %r12, %rdi movq %r14, %rsi movq %r15, %r12 movq %r15, %rdx callq *%r13 movq %rbp, %rdi jmp .LBB4_26 .LBB4_10: vmovdqa 64(%rdi), %xmm0 vpshufb .LCPI4_0(%rip), %xmm0, %xmm0 vpxor (%rdi), %xmm0, %xmm0 vmovdqa 240(%rsi), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI4_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rdi) vpxor %xmm0, %xmm0, %xmm0 vmovdqu %ymm0, 48(%rdi) movq $0, 80(%rdi) .LBB4_11: movq %rax, %rbx cmpq $96, %rbx jb .LBB4_14 .LBB4_16: vmovups (%rdx), %xmm0 vmovaps %xmm0, 48(%rsp) vmovups 16(%rdx), %xmm0 vmovaps %xmm0, 32(%rsp) vmovups 32(%rdx), %xmm0 vmovaps %xmm0, 16(%rsp) vmovups 48(%rdx), %xmm0 vmovaps %xmm0, 64(%rsp) vmovdqu 64(%rdx), %xmm3 vmovdqu 80(%rdx), %xmm6 vmovdqa 32(%rdi), %xmm1 vmovdqa .LCPI4_0(%rip), %xmm10 vpshufb %xmm10, %xmm1, %xmm7 vpaddd .LCPI4_2(%rip), %xmm1, %xmm8 vpshufb %xmm10, %xmm8, %xmm9 vpaddd .LCPI4_3(%rip), %xmm1, %xmm8 vpshufb %xmm10, %xmm8, %xmm14 vpaddd .LCPI4_4(%rip), %xmm1, %xmm8 vpshufb %xmm10, %xmm8, %xmm11 vpaddd .LCPI4_5(%rip), %xmm1, %xmm8 vpshufb %xmm10, %xmm8, %xmm12 vpaddd .LCPI4_6(%rip), %xmm1, %xmm8 vpshufb %xmm10, %xmm8, %xmm13 vpaddd .LCPI4_7(%rip), %xmm1, %xmm1 vmovdqa %xmm1, 32(%rdi) vmovdqa (%rsi), %xmm15 vmovaps 16(%rsi), %xmm0 vmovdqa 32(%rsi), %xmm2 vpxor %xmm7, %xmm15, %xmm8 vpxor %xmm9, %xmm15, %xmm7 vpxor %xmm14, %xmm15, %xmm1 vpxor %xmm11, %xmm15, %xmm11 vpxor %xmm12, %xmm15, %xmm9 vpxor %xmm13, %xmm15, %xmm12 vmovdqa %xmm15, %xmm13 vmovaps %xmm0, 432(%rsp) #APP vaesenc %xmm0, %xmm8, %xmm8 vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm9, %xmm9 vaesenc %xmm0, %xmm12, %xmm12 #NO_APP vmovdqa %xmm2, %xmm0 #APP vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm1, %xmm1 vaesenc %xmm2, %xmm11, %xmm11 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm12, %xmm12 #NO_APP vmovdqa 48(%rsi), %xmm2 #APP vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm1, %xmm1 vaesenc %xmm2, %xmm11, %xmm11 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm12, %xmm12 #NO_APP vmovaps 64(%rsi), %xmm14 vmovaps %xmm14, 416(%rsp) #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovaps 80(%rsi), %xmm14 vmovaps %xmm14, 400(%rsp) #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovaps 96(%rsi), %xmm14 vmovaps %xmm14, 384(%rsp) #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovaps 112(%rsi), %xmm14 vmovaps %xmm14, 368(%rsp) #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovaps 128(%rsi), %xmm14 vmovaps %xmm14, 352(%rsp) #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovaps 144(%rsi), %xmm14 vmovaps %xmm14, 336(%rsp) #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovaps 160(%rsi), %xmm14 vmovaps %xmm14, 320(%rsp) #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovaps 176(%rsi), %xmm14 vmovaps %xmm14, 304(%rsp) #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovaps 192(%rsi), %xmm14 vmovaps %xmm14, 288(%rsp) #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovdqa 208(%rsi), %xmm14 vmovdqa %xmm14, %xmm4 #APP vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP vmovdqa 224(%rsi), %xmm14 vmovdqa %xmm14, %xmm5 #APP vaesenclast %xmm14, %xmm8, %xmm8 vaesenclast %xmm14, %xmm7, %xmm7 vaesenclast %xmm14, %xmm1, %xmm1 vaesenclast %xmm14, %xmm11, %xmm11 vaesenclast %xmm14, %xmm9, %xmm9 vaesenclast %xmm14, %xmm12, %xmm12 #NO_APP vpxor %xmm6, %xmm12, %xmm14 vpxor %xmm3, %xmm9, %xmm9 vpxor 64(%rsp), %xmm11, %xmm12 vpxor 16(%rsp), %xmm1, %xmm6 vpxor 32(%rsp), %xmm7, %xmm1 vpxor 48(%rsp), %xmm8, %xmm15 addq $96, %rdx leaq 96(%r8), %rcx addq $-96, %rbx vmovdqu %xmm15, (%r8) vmovdqa %xmm1, %xmm11 vmovdqu %xmm1, 16(%r8) vmovdqa %xmm6, %xmm3 vmovdqu %xmm6, 32(%r8) vmovdqu %xmm12, 48(%r8) vmovdqa %xmm9, %xmm6 vmovdqu %xmm9, 64(%r8) vmovdqu %xmm14, 80(%r8) vmovdqa (%rdi), %xmm8 cmpq $96, %rbx jb .LBB4_20 vmovaps 240(%rsi), %xmm1 vmovaps %xmm1, 272(%rsp) vmovaps 256(%rsi), %xmm1 vmovaps %xmm1, 256(%rsp) vmovaps 272(%rsi), %xmm1 vmovaps %xmm1, 240(%rsp) vmovaps 288(%rsi), %xmm1 vmovaps %xmm1, 224(%rsp) vmovaps 304(%rsi), %xmm1 vmovaps %xmm1, 208(%rsp) vmovdqa 320(%rsi), %xmm1 vmovdqa %xmm1, 192(%rsp) vmovdqa %xmm0, 176(%rsp) vmovdqa %xmm2, 144(%rsp) vmovdqa %xmm4, 160(%rsp) vmovdqa %xmm5, 128(%rsp) vmovdqa %xmm6, %xmm5 .p2align 4, 0x90 .LBB4_18: vmovdqa %xmm3, 448(%rsp) vmovdqa %xmm5, 464(%rsp) vmovdqa %xmm11, 480(%rsp) vmovups (%rdx), %xmm0 vmovaps %xmm0, 48(%rsp) vmovups 16(%rdx), %xmm0 vmovaps %xmm0, 32(%rsp) vmovups 32(%rdx), %xmm0 vmovaps %xmm0, 16(%rsp) vmovups 48(%rdx), %xmm0 vmovaps %xmm0, 64(%rsp) vmovups 64(%rdx), %xmm0 vmovaps %xmm0, 80(%rsp) vmovups 80(%rdx), %xmm0 vmovaps %xmm0, 112(%rsp) vmovdqa 32(%rdi), %xmm0 vpaddd .LCPI4_2(%rip), %xmm0, %xmm4 vpshufb %xmm10, %xmm4, %xmm5 vpaddd .LCPI4_7(%rip), %xmm0, %xmm4 vmovdqa %xmm4, 32(%rdi) vpaddd .LCPI4_3(%rip), %xmm0, %xmm4 vpshufb %xmm10, %xmm4, %xmm6 vpshufb %xmm10, %xmm15, %xmm4 vpxor %xmm4, %xmm8, %xmm1 vmovdqa %xmm1, 96(%rsp) vpaddd .LCPI4_4(%rip), %xmm0, %xmm7 vpshufb %xmm10, %xmm7, %xmm7 vpaddd .LCPI4_5(%rip), %xmm0, %xmm8 vpshufb %xmm10, %xmm8, %xmm9 vpshufb %xmm10, %xmm0, %xmm8 vpaddd .LCPI4_6(%rip), %xmm0, %xmm0 vpshufb %xmm10, %xmm0, %xmm1 vmovdqa %xmm10, %xmm2 vpshufb %xmm10, %xmm14, %xmm10 vpxor %xmm8, %xmm13, %xmm8 vpxor %xmm5, %xmm13, %xmm15 vmovdqa %xmm13, %xmm4 vpxor %xmm6, %xmm13, %xmm13 vpxor %xmm7, %xmm4, %xmm0 vpxor %xmm4, %xmm9, %xmm5 vpxor %xmm1, %xmm4, %xmm14 vmovaps 432(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm8, %xmm8 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm14, %xmm14 #NO_APP vpxor %xmm6, %xmm6, %xmm6 vpxor %xmm7, %xmm7, %xmm7 vpxor %xmm9, %xmm9, %xmm9 vmovdqa %xmm12, %xmm11 vmovaps 272(%rsp), %xmm12 vmovaps 176(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm14, %xmm14 vpclmulqdq $16, %xmm12, %xmm10, %xmm1 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm12, %xmm10, %xmm1 vpxor %xmm1, %xmm9, %xmm9 vpclmulqdq $17, %xmm12, %xmm10, %xmm1 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm12, %xmm10, %xmm1 vpxor %xmm1, %xmm6, %xmm6 #NO_APP vmovdqa 464(%rsp), %xmm1 vpshufb %xmm2, %xmm1, %xmm1 vmovaps 144(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm14, %xmm14 #NO_APP vmovaps 256(%rsp), %xmm12 vmovaps 416(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm14, %xmm14 vpclmulqdq $16, %xmm12, %xmm1, %xmm10 vpxor %xmm6, %xmm10, %xmm6 vpclmulqdq $0, %xmm12, %xmm1, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $17, %xmm12, %xmm1, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $1, %xmm12, %xmm1, %xmm10 vpxor %xmm6, %xmm10, %xmm6 #NO_APP vpshufb %xmm2, %xmm11, %xmm1 vmovaps 400(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm14, %xmm14 #NO_APP vmovaps 240(%rsp), %xmm12 vmovaps 384(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm14, %xmm14 vpclmulqdq $16, %xmm12, %xmm1, %xmm10 vpxor %xmm6, %xmm10, %xmm6 vpclmulqdq $0, %xmm12, %xmm1, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $17, %xmm12, %xmm1, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $1, %xmm12, %xmm1, %xmm10 vpxor %xmm6, %xmm10, %xmm6 #NO_APP vmovdqa %xmm2, %xmm10 vmovdqa 448(%rsp), %xmm1 vpshufb %xmm2, %xmm1, %xmm1 vmovaps 368(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm15, %xmm15 vaesenc %xmm2, %xmm13, %xmm13 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm2, %xmm5, %xmm5 vaesenc %xmm2, %xmm14, %xmm14 #NO_APP vmovaps 224(%rsp), %xmm2 vmovaps 352(%rsp), %xmm11 #APP vaesenc %xmm11, %xmm8, %xmm8 vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm13, %xmm13 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm14, %xmm14 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm1, %xmm3 vpxor %xmm3, %xmm9, %xmm9 vpclmulqdq $17, %xmm2, %xmm1, %xmm3 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm1, %xmm3 vpxor %xmm3, %xmm6, %xmm6 #NO_APP vmovdqa 480(%rsp), %xmm1 vpshufb %xmm10, %xmm1, %xmm1 vmovaps 336(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm15, %xmm15 vaesenc %xmm2, %xmm13, %xmm13 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm2, %xmm5, %xmm5 vaesenc %xmm2, %xmm14, %xmm14 #NO_APP vmovaps 208(%rsp), %xmm3 vmovaps 320(%rsp), %xmm11 #APP vaesenc %xmm11, %xmm8, %xmm8 vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm13, %xmm13 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm14, %xmm14 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm1, %xmm2 vpxor %xmm2, %xmm9, %xmm9 vpclmulqdq $17, %xmm3, %xmm1, %xmm2 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $1, %xmm3, %xmm1, %xmm2 vpxor %xmm2, %xmm6, %xmm6 #NO_APP vmovaps 304(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm8, %xmm8 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm14, %xmm14 #NO_APP vmovaps 192(%rsp), %xmm2 vmovaps 288(%rsp), %xmm3 vmovaps 96(%rsp), %xmm11 #APP vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm14, %xmm14 vpclmulqdq $16, %xmm2, %xmm11, %xmm1 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm11, %xmm1 vpxor %xmm1, %xmm9, %xmm9 vpclmulqdq $17, %xmm2, %xmm11, %xmm1 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm11, %xmm1 vpxor %xmm1, %xmm6, %xmm6 #NO_APP vmovaps 160(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm8, %xmm8 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm14, %xmm14 #NO_APP vmovdqa 128(%rsp), %xmm1 #APP vaesenclast %xmm1, %xmm8, %xmm8 vaesenclast %xmm1, %xmm15, %xmm15 vaesenclast %xmm1, %xmm13, %xmm13 vaesenclast %xmm1, %xmm0, %xmm0 vaesenclast %xmm1, %xmm5, %xmm5 vaesenclast %xmm1, %xmm14, %xmm14 #NO_APP vpxor 112(%rsp), %xmm14, %xmm14 vpxor 80(%rsp), %xmm5, %xmm5 vpxor 64(%rsp), %xmm0, %xmm12 vpxor 16(%rsp), %xmm13, %xmm3 vmovdqa %xmm4, %xmm13 vpxor 32(%rsp), %xmm15, %xmm11 vpxor 48(%rsp), %xmm8, %xmm15 vpxor %xmm1, %xmm1, %xmm1 vpunpcklqdq %xmm6, %xmm1, %xmm0 vpxor %xmm0, %xmm9, %xmm0 vpunpckhqdq %xmm1, %xmm6, %xmm1 vpxor %xmm1, %xmm7, %xmm1 vpbroadcastq .LCPI4_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm4 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm4, %xmm0 vpshufd $78, %xmm0, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $16, %xmm2, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm8 vmovdqu %xmm15, (%rcx) vmovdqu %xmm11, 16(%rcx) vmovdqu %xmm3, 32(%rcx) vmovdqu %xmm12, 48(%rcx) vmovdqu %xmm5, 64(%rcx) addq $96, %rdx vmovdqu %xmm14, 80(%rcx) addq $96, %rcx addq $-96, %rbx cmpq $95, %rbx ja .LBB4_18 vmovdqa %xmm3, %xmm2 vmovdqa %xmm5, %xmm6 jmp .LBB4_21 .LBB4_20: vmovdqa %xmm3, %xmm2 .LBB4_21: vpshufb %xmm10, %xmm15, %xmm0 vpxor %xmm0, %xmm8, %xmm0 vpshufb %xmm10, %xmm11, %xmm1 vpshufb %xmm10, %xmm2, %xmm4 vpshufb %xmm10, %xmm12, %xmm5 vpshufb %xmm10, %xmm6, %xmm6 vpshufb %xmm10, %xmm14, %xmm7 vmovdqa 240(%rsi), %xmm8 vmovdqa 256(%rsi), %xmm9 vmovdqa 272(%rsi), %xmm10 vmovdqa 288(%rsi), %xmm11 vmovdqa 304(%rsi), %xmm3 vmovdqa 320(%rsi), %xmm2 vpclmulqdq $0, %xmm7, %xmm8, %xmm12 vpclmulqdq $1, %xmm7, %xmm8, %xmm13 vpclmulqdq $16, %xmm7, %xmm8, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $17, %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm6, %xmm9, %xmm8 vpxor %xmm12, %xmm8, %xmm8 vpclmulqdq $1, %xmm6, %xmm9, %xmm12 vpclmulqdq $16, %xmm6, %xmm9, %xmm14 vpxor %xmm14, %xmm12, %xmm12 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm6, %xmm9, %xmm6 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm10, %xmm7 vpclmulqdq $1, %xmm5, %xmm10, %xmm9 vpclmulqdq $16, %xmm5, %xmm10, %xmm13 vpxor %xmm13, %xmm9, %xmm9 vpclmulqdq $17, %xmm5, %xmm10, %xmm5 vpclmulqdq $0, %xmm4, %xmm11, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $1, %xmm4, %xmm11, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpxor %xmm8, %xmm12, %xmm8 vpclmulqdq $16, %xmm4, %xmm11, %xmm9 vpclmulqdq $17, %xmm4, %xmm11, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $0, %xmm1, %xmm3, %xmm5 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $1, %xmm1, %xmm3, %xmm6 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $16, %xmm1, %xmm3, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm1, %xmm3, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $0, %xmm0, %xmm2, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $1, %xmm0, %xmm2, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm0, %xmm2, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $17, %xmm0, %xmm2, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm4, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpsrldq $8, %xmm4, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI4_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vmovdqa %xmm0, (%rdi) movq %rcx, %r8 cmpq $16, %rbx jae .LBB4_22 .LBB4_15: testq %rbx, %rbx jne .LBB4_25 jmp .LBB4_27 .LBB4_12: movl $16, %r14d subq %rcx, %r14 leaq (%rdx,%r14), %rdi movq %rdi, 16(%rsp) leaq (%r8,%r14), %rdi movq %rdi, 64(%rsp) movq %rax, %rbx subq %r14, %rbx vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r15 movq %r15, %rdi movq %rsi, 32(%rsp) movq %rdx, %rsi movq %r14, %rdx movq %rax, %r13 movq %r8, %r12 callq *memcpy@GOTPCREL(%rip) vmovaps (%rsp), %xmm0 vxorps 64(%rbp), %xmm0, %xmm0 vmovaps %xmm0, 80(%rsp) vmovaps %xmm0, 64(%rbp) vmovaps %xmm0, (%rsp) movq %r12, %rdi movq %r15, %rsi movq %r14, %rdx callq *memcpy@GOTPCREL(%rip) movq 32(%rsp), %rsi movq %rbp, %rdi movq %r13, %rax movq $0, 80(%rbp) vmovdqa 240(%rsi), %xmm0 vmovdqa 80(%rsp), %xmm1 vpshufb .LCPI4_0(%rip), %xmm1, %xmm1 vpxor (%rbp), %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI4_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rbp) movq 64(%rsp), %r8 movq 16(%rsp), %rdx movq 48(%rsp), %r11 cmpq $96, %rbx jae .LBB4_16 .LBB4_14: cmpq $16, %rbx jb .LBB4_15 .LBB4_22: vmovdqa (%rdi), %xmm14 vmovdqa 32(%rdi), %xmm0 vmovaps (%rsi), %xmm1 vmovaps %xmm1, 48(%rsp) vmovaps 16(%rsi), %xmm1 vmovaps %xmm1, 32(%rsp) vmovaps 32(%rsi), %xmm1 vmovaps %xmm1, 16(%rsp) vmovaps 48(%rsi), %xmm1 vmovaps %xmm1, 64(%rsp) vmovaps 64(%rsi), %xmm1 vmovaps %xmm1, 80(%rsp) vmovaps 80(%rsi), %xmm1 vmovaps %xmm1, 112(%rsp) vmovaps 96(%rsi), %xmm1 vmovaps %xmm1, 96(%rsp) vmovdqa 112(%rsi), %xmm8 vmovdqa 128(%rsi), %xmm9 vmovdqa 144(%rsi), %xmm10 vmovdqa 160(%rsi), %xmm11 vmovdqa 176(%rsi), %xmm12 vmovdqa 192(%rsi), %xmm13 vmovdqa 208(%rsi), %xmm15 vmovdqa 224(%rsi), %xmm1 vmovdqa 240(%rsi), %xmm2 vmovdqa .LCPI4_0(%rip), %xmm3 vpbroadcastq .LCPI4_8(%rip), %xmm4 .p2align 4, 0x90 .LBB4_23: vpshufb %xmm3, %xmm0, %xmm5 vpxor 48(%rsp), %xmm5, %xmm5 vaesenc 32(%rsp), %xmm5, %xmm5 vaesenc 16(%rsp), %xmm5, %xmm5 vaesenc 64(%rsp), %xmm5, %xmm5 vaesenc 80(%rsp), %xmm5, %xmm5 vaesenc 112(%rsp), %xmm5, %xmm5 vaesenc 96(%rsp), %xmm5, %xmm5 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm13, %xmm5, %xmm5 vaesenc %xmm15, %xmm5, %xmm5 vaesenclast %xmm1, %xmm5, %xmm5 vpxor (%rdx), %xmm5, %xmm5 vmovdqu %xmm5, (%r8) vpshufb %xmm3, %xmm5, %xmm5 vpxor %xmm5, %xmm14, %xmm5 vpclmulqdq $0, %xmm5, %xmm2, %xmm14 vpclmulqdq $1, %xmm5, %xmm2, %xmm6 vpclmulqdq $16, %xmm5, %xmm2, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $17, %xmm5, %xmm2, %xmm5 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $16, %xmm4, %xmm7, %xmm6 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpshufd $78, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $16, %xmm4, %xmm6, %xmm6 vpxor %xmm5, %xmm6, %xmm14 addq $16, %rdx addq $16, %r8 addq $-16, %rbx vpaddd .LCPI4_2(%rip), %xmm0, %xmm0 cmpq $15, %rbx ja .LBB4_23 vmovdqa %xmm0, 32(%rdi) vmovdqa %xmm14, (%rdi) testq %rbx, %rbx je .LBB4_27 .LBB4_25: movq %r11, 48(%rsp) movq %rax, %r12 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rax movq memcpy@GOTPCREL(%rip), %r15 movq %rdi, %rbp movq %rax, %rdi movq %rsi, %r13 movq %rdx, %rsi movq %rbx, %rdx movq %r8, %r14 vzeroupper callq *%r15 vmovdqa 32(%rbp), %xmm0 vpshufb .LCPI4_0(%rip), %xmm0, %xmm1 vpaddd .LCPI4_2(%rip), %xmm0, %xmm0 vmovdqa %xmm0, 32(%rbp) vpxor (%r13), %xmm1, %xmm0 vaesenc 16(%r13), %xmm0, %xmm0 vaesenc 32(%r13), %xmm0, %xmm0 vaesenc 48(%r13), %xmm0, %xmm0 vaesenc 64(%r13), %xmm0, %xmm0 vaesenc 80(%r13), %xmm0, %xmm0 vaesenc 96(%r13), %xmm0, %xmm0 vaesenc 112(%r13), %xmm0, %xmm0 vaesenc 128(%r13), %xmm0, %xmm0 vaesenc 144(%r13), %xmm0, %xmm0 vaesenc 160(%r13), %xmm0, %xmm0 vaesenc 176(%r13), %xmm0, %xmm0 vaesenc 192(%r13), %xmm0, %xmm0 vaesenc 208(%r13), %xmm0, %xmm0 vmovdqa (%rsp), %xmm1 vaesenclast 224(%r13), %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) vpxor %xmm1, %xmm0, %xmm0 vmovdqa %xmm0, 16(%rsp) vmovdqa %xmm0, (%rsp) movq %rsp, %rsi movq %r14, %rdi movq %rbx, %rdx callq *%r15 movq %rbp, %rdi vmovaps 32(%rsp), %xmm0 vmovaps %xmm0, 48(%rbp) vmovdqa 16(%rsp), %xmm0 vmovdqa %xmm0, 64(%rbp) .LBB4_26: movq %rbx, 80(%rdi) movq %r12, %rax movq 48(%rsp), %r11 .LBB4_27: movq %r11, 104(%rdi) addq $504, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp vzeroupper retq .Lfunc_end4: .size haberdashery_aes256gcm_streaming_skylake_encrypt_update, .Lfunc_end4-haberdashery_aes256gcm_streaming_skylake_encrypt_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI5_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI5_1: .zero 8 .quad -4467570830351532032 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI5_2: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_streaming_skylake_encrypt_finalize,"ax",@progbits .globl haberdashery_aes256gcm_streaming_skylake_encrypt_finalize .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_skylake_encrypt_finalize,@function haberdashery_aes256gcm_streaming_skylake_encrypt_finalize: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $56, %rsp .cfi_def_cfa_offset 112 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq %rcx, %rbx movq %rsi, %r15 movq %rdi, %r12 movq 104(%rdi), %rbp testq %rbp, %rbp je .LBB5_1 movq %rdx, 8(%rsp) leaq 48(%r12), %r14 vmovaps 64(%r12), %xmm0 movq 80(%r12), %r13 vmovaps %xmm0, 32(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 16(%rsp) leaq 16(%rsp), %rdi leaq 32(%rsp), %rsi movq %r13, %rdx callq *memcpy@GOTPCREL(%rip) vmovdqa (%r12), %xmm0 testq %r13, %r13 je .LBB5_4 vmovdqa 16(%rsp), %xmm1 vpshufb .LCPI5_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm2 vmovdqa 240(%r15), %xmm3 vpclmulqdq $0, %xmm2, %xmm3, %xmm0 vpclmulqdq $1, %xmm2, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm3, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm2, %xmm3, %xmm2 movq 8(%rsp), %rdx jmp .LBB5_6 .LBB5_1: cmpq $0, 80(%r12) vmovdqa (%r12), %xmm0 je .LBB5_8 vmovdqa 240(%r15), %xmm2 leaq 48(%r12), %r14 vmovdqa 64(%r12), %xmm1 vpshufb .LCPI5_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm3 vpclmulqdq $0, %xmm3, %xmm2, %xmm0 vpclmulqdq $1, %xmm3, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm3, %xmm2, %xmm2 .LBB5_6: vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI5_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm0, %xmm2, %xmm0 jmp .LBB5_7 .LBB5_4: movq 8(%rsp), %rdx .LBB5_7: vpxor %xmm1, %xmm1, %xmm1 vmovdqu %ymm1, (%r14) movq $0, 32(%r14) .LBB5_8: vmovdqa 240(%r15), %xmm1 vmovq 96(%r12), %xmm2 vmovq %rbp, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI5_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%r12) testq %rbx, %rbx je .LBB5_9 vmovdqa (%r15), %xmm1 vpxor 16(%r12), %xmm1, %xmm1 vaesenc 16(%r15), %xmm1, %xmm1 vaesenc 32(%r15), %xmm1, %xmm1 vaesenc 48(%r15), %xmm1, %xmm1 vaesenc 64(%r15), %xmm1, %xmm1 vaesenc 80(%r15), %xmm1, %xmm1 vaesenc 96(%r15), %xmm1, %xmm1 vaesenc 112(%r15), %xmm1, %xmm1 vaesenc 128(%r15), %xmm1, %xmm1 vaesenc 144(%r15), %xmm1, %xmm1 vaesenc 160(%r15), %xmm1, %xmm1 vaesenc 176(%r15), %xmm1, %xmm1 vaesenc 192(%r15), %xmm1, %xmm1 vaesenc 208(%r15), %xmm1, %xmm1 vaesenclast 224(%r15), %xmm1, %xmm1 vpshufb .LCPI5_0(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 cmpq $16, %rbx jae .LBB5_11 vmovdqa %xmm0, 16(%rsp) leaq 16(%rsp), %rsi movq %rdx, %rdi movq %rbx, %rdx vzeroupper callq *memcpy@GOTPCREL(%rip) jmp .LBB5_13 .LBB5_9: xorl %ebx, %ebx jmp .LBB5_13 .LBB5_11: vmovdqu %xmm0, (%rdx) movl $16, %ebx .LBB5_13: movq %rbx, %rax addq $56, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 vzeroupper retq .Lfunc_end5: .size haberdashery_aes256gcm_streaming_skylake_encrypt_finalize, .Lfunc_end5-haberdashery_aes256gcm_streaming_skylake_encrypt_finalize .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI6_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI6_1: .zero 8 .quad -4467570830351532032 .LCPI6_2: .long 1 .long 0 .long 0 .long 0 .LCPI6_3: .long 2 .long 0 .long 0 .long 0 .LCPI6_4: .long 3 .long 0 .long 0 .long 0 .LCPI6_5: .long 4 .long 0 .long 0 .long 0 .LCPI6_6: .long 5 .long 0 .long 0 .long 0 .LCPI6_7: .long 6 .long 0 .long 0 .long 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI6_8: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_streaming_skylake_decrypt_update,"ax",@progbits .globl haberdashery_aes256gcm_streaming_skylake_decrypt_update .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_skylake_decrypt_update,@function haberdashery_aes256gcm_streaming_skylake_decrypt_update: .cfi_startproc cmpq %r9, %rcx jne .LBB6_3 movq %rcx, %rax movabsq $-68719476704, %rcx leaq (%rax,%rcx), %r9 incq %rcx cmpq %rcx, %r9 jb .LBB6_3 movq 104(%rdi), %rcx leaq (%rcx,%rax), %r11 movq %r11, %r9 shrq $5, %r9 cmpq $2147483646, %r9 jbe .LBB6_6 .LBB6_3: xorl %eax, %eax retq .LBB6_6: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $456, %rsp .cfi_def_cfa_offset 512 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 testq %rcx, %rcx setne %r9b movq 80(%rdi), %rcx testq %rcx, %rcx sete %r10b orb %r9b, %r10b je .LBB6_10 testq %rcx, %rcx je .LBB6_11 movq %r11, 16(%rsp) movq %rdi, %rbp leaq (%rcx,%rax), %rbx cmpq $15, %rbx ja .LBB6_12 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r14 movq memcpy@GOTPCREL(%rip), %r13 movq %r14, %rdi movq %rdx, %rsi movq %rax, %rdx movq %rax, %r15 movq %r8, %r12 callq *%r13 vmovdqa (%rsp), %xmm0 vpxor 64(%rbp), %xmm0, %xmm0 vmovdqa %xmm0, 64(%rbp) vmovdqa %xmm0, (%rsp) movq %r12, %rdi movq %r14, %rsi movq %r15, %r12 movq %r15, %rdx callq *%r13 movq %rbp, %rdi jmp .LBB6_23 .LBB6_10: vmovdqa 64(%rdi), %xmm0 vpshufb .LCPI6_0(%rip), %xmm0, %xmm0 vpxor (%rdi), %xmm0, %xmm0 vmovdqa 240(%rsi), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI6_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rdi) vpxor %xmm0, %xmm0, %xmm0 vmovdqu %ymm0, 48(%rdi) movq $0, 80(%rdi) .LBB6_11: movq %rax, %rbx cmpq $96, %rbx jb .LBB6_14 .LBB6_16: vmovdqa (%rdi), %xmm7 vmovaps (%rsi), %xmm0 vmovaps %xmm0, 144(%rsp) vmovaps 16(%rsi), %xmm0 vmovaps %xmm0, 112(%rsp) vmovaps 32(%rsi), %xmm0 vmovaps %xmm0, 96(%rsp) vmovaps 48(%rsi), %xmm0 vmovaps %xmm0, 432(%rsp) vmovaps 64(%rsi), %xmm0 vmovaps %xmm0, 416(%rsp) vmovaps 80(%rsi), %xmm0 vmovaps %xmm0, 400(%rsp) vmovaps 96(%rsi), %xmm0 vmovaps %xmm0, 384(%rsp) vmovaps 112(%rsi), %xmm0 vmovaps %xmm0, 368(%rsp) vmovaps 128(%rsi), %xmm0 vmovaps %xmm0, 352(%rsp) vmovaps 144(%rsi), %xmm0 vmovaps %xmm0, 336(%rsp) vmovaps 160(%rsi), %xmm0 vmovaps %xmm0, 320(%rsp) vmovaps 176(%rsi), %xmm0 vmovaps %xmm0, 304(%rsp) vmovaps 192(%rsi), %xmm0 vmovaps %xmm0, 288(%rsp) vmovaps 208(%rsi), %xmm0 vmovaps %xmm0, 272(%rsp) vmovaps 224(%rsi), %xmm0 vmovaps %xmm0, 256(%rsp) vmovaps 240(%rsi), %xmm0 vmovaps %xmm0, 240(%rsp) vmovaps 256(%rsi), %xmm0 vmovaps %xmm0, 224(%rsp) vmovaps 272(%rsi), %xmm0 vmovaps %xmm0, 208(%rsp) vmovaps 288(%rsi), %xmm0 vmovaps %xmm0, 192(%rsp) vmovaps 304(%rsi), %xmm0 vmovaps %xmm0, 176(%rsp) vmovdqa 320(%rsi), %xmm0 vmovdqa %xmm0, 160(%rsp) .p2align 4, 0x90 .LBB6_17: vmovdqu (%rdx), %xmm9 vmovdqa %xmm9, 48(%rsp) vmovups 16(%rdx), %xmm0 vmovaps %xmm0, 128(%rsp) vmovups 32(%rdx), %xmm0 vmovaps %xmm0, 16(%rsp) vmovdqu 48(%rdx), %xmm14 vmovdqu 64(%rdx), %xmm11 vmovdqa %xmm11, 64(%rsp) vmovdqu 80(%rdx), %xmm10 vmovdqa %xmm10, 32(%rsp) vmovdqa 32(%rdi), %xmm0 vmovdqa .LCPI6_0(%rip), %xmm6 vpshufb %xmm6, %xmm0, %xmm1 vpaddd .LCPI6_2(%rip), %xmm0, %xmm2 vpshufb %xmm6, %xmm2, %xmm2 vpaddd .LCPI6_3(%rip), %xmm0, %xmm3 vpshufb %xmm6, %xmm3, %xmm3 vpaddd .LCPI6_4(%rip), %xmm0, %xmm4 vpshufb %xmm6, %xmm4, %xmm4 vpaddd .LCPI6_5(%rip), %xmm0, %xmm5 vpshufb %xmm6, %xmm5, %xmm5 vpaddd .LCPI6_6(%rip), %xmm0, %xmm8 vpshufb %xmm6, %xmm8, %xmm8 vpaddd .LCPI6_7(%rip), %xmm0, %xmm0 vmovdqa %xmm0, 32(%rdi) vpshufb %xmm6, %xmm9, %xmm0 vpxor %xmm0, %xmm7, %xmm0 vmovdqa %xmm0, 80(%rsp) vpshufb %xmm6, %xmm10, %xmm10 vmovdqa 144(%rsp), %xmm0 vpxor %xmm1, %xmm0, %xmm15 vpxor %xmm2, %xmm0, %xmm1 vpxor %xmm3, %xmm0, %xmm2 vpxor %xmm4, %xmm0, %xmm3 vpxor %xmm5, %xmm0, %xmm4 vpxor %xmm0, %xmm8, %xmm5 vmovaps 112(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 #NO_APP vpxor %xmm8, %xmm8, %xmm8 vxorps %xmm0, %xmm0, %xmm0 vpxor %xmm9, %xmm9, %xmm9 vmovaps 96(%rsp), %xmm12 vmovaps 240(%rsp), %xmm13 #APP vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm5, %xmm5 vpclmulqdq $16, %xmm13, %xmm10, %xmm7 vpxor %xmm7, %xmm8, %xmm8 vpclmulqdq $0, %xmm13, %xmm10, %xmm7 vpxor %xmm7, %xmm9, %xmm9 vpclmulqdq $17, %xmm13, %xmm10, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $1, %xmm13, %xmm10, %xmm7 vpxor %xmm7, %xmm8, %xmm8 #NO_APP vmovaps 432(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP vpshufb %xmm6, %xmm11, %xmm7 vmovaps 416(%rsp), %xmm12 vmovaps 224(%rsp), %xmm13 #APP vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm5, %xmm5 vpclmulqdq $16, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $0, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $17, %xmm13, %xmm7, %xmm10 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $1, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm8, %xmm8 #NO_APP vmovaps 400(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP vpshufb %xmm6, %xmm14, %xmm7 vmovaps 384(%rsp), %xmm12 vmovaps 208(%rsp), %xmm13 #APP vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm5, %xmm5 vpclmulqdq $16, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $0, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $17, %xmm13, %xmm7, %xmm10 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $1, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm8, %xmm8 #NO_APP vmovaps 368(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP vmovdqa 16(%rsp), %xmm7 vpshufb %xmm6, %xmm7, %xmm7 vmovaps 352(%rsp), %xmm12 vmovaps 192(%rsp), %xmm13 #APP vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm5, %xmm5 vpclmulqdq $16, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $0, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $17, %xmm13, %xmm7, %xmm10 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $1, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm8, %xmm8 #NO_APP vmovaps 336(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP vmovdqa 128(%rsp), %xmm11 vpshufb %xmm6, %xmm11, %xmm7 vmovaps 320(%rsp), %xmm12 vmovdqa 176(%rsp), %xmm13 #APP vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm5, %xmm5 vpclmulqdq $16, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $0, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $17, %xmm13, %xmm7, %xmm10 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $1, %xmm13, %xmm7, %xmm10 vpxor %xmm10, %xmm8, %xmm8 #NO_APP vmovaps 304(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP vmovdqa 288(%rsp), %xmm10 vmovdqa 160(%rsp), %xmm12 vmovdqa 80(%rsp), %xmm6 #APP vaesenc %xmm10, %xmm15, %xmm15 vaesenc %xmm10, %xmm1, %xmm1 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm10, %xmm4, %xmm4 vaesenc %xmm10, %xmm5, %xmm5 vpclmulqdq $16, %xmm12, %xmm6, %xmm7 vpxor %xmm7, %xmm8, %xmm8 vpclmulqdq $0, %xmm12, %xmm6, %xmm7 vpxor %xmm7, %xmm9, %xmm9 vpclmulqdq $17, %xmm12, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $1, %xmm12, %xmm6, %xmm7 vpxor %xmm7, %xmm8, %xmm8 #NO_APP vpxor %xmm10, %xmm10, %xmm10 vpunpcklqdq %xmm8, %xmm10, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpunpckhqdq %xmm10, %xmm8, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vpbroadcastq .LCPI6_8(%rip), %xmm9 vpclmulqdq $16, %xmm9, %xmm7, %xmm8 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpshufd $78, %xmm7, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $16, %xmm9, %xmm7, %xmm7 vpxor %xmm7, %xmm0, %xmm7 vmovaps 272(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 #NO_APP vmovaps 256(%rsp), %xmm0 #APP vaesenclast %xmm0, %xmm15, %xmm15 vaesenclast %xmm0, %xmm1, %xmm1 vaesenclast %xmm0, %xmm2, %xmm2 vaesenclast %xmm0, %xmm3, %xmm3 vaesenclast %xmm0, %xmm4, %xmm4 vaesenclast %xmm0, %xmm5, %xmm5 #NO_APP vpxor 48(%rsp), %xmm15, %xmm0 vpxor %xmm1, %xmm11, %xmm1 vpxor 16(%rsp), %xmm2, %xmm2 vpxor %xmm3, %xmm14, %xmm3 vpxor 64(%rsp), %xmm4, %xmm4 vpxor 32(%rsp), %xmm5, %xmm5 vmovdqu %xmm0, (%r8) vmovdqu %xmm1, 16(%r8) vmovdqu %xmm2, 32(%r8) vmovdqu %xmm3, 48(%r8) vmovdqu %xmm4, 64(%r8) vmovdqu %xmm5, 80(%r8) addq $96, %rdx addq $96, %r8 addq $-96, %rbx cmpq $95, %rbx ja .LBB6_17 vmovdqa %xmm7, (%rdi) cmpq $16, %rbx jae .LBB6_19 .LBB6_15: testq %rbx, %rbx jne .LBB6_22 jmp .LBB6_24 .LBB6_12: movl $16, %r14d subq %rcx, %r14 leaq (%rdx,%r14), %rdi movq %rdi, 32(%rsp) leaq (%r8,%r14), %rdi movq %rdi, 80(%rsp) movq %rax, %rbx subq %r14, %rbx vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r15 movq %r15, %rdi movq %rsi, 48(%rsp) movq %rdx, %rsi movq %r14, %rdx movq %rax, %r13 movq %r8, %r12 callq *memcpy@GOTPCREL(%rip) vmovaps (%rsp), %xmm0 vxorps 64(%rbp), %xmm0, %xmm0 vmovaps %xmm0, 64(%rsp) vmovaps %xmm0, 64(%rbp) vmovaps %xmm0, (%rsp) movq %r12, %rdi movq %r15, %rsi movq %r14, %rdx callq *memcpy@GOTPCREL(%rip) movq 48(%rsp), %rsi movq %rbp, %rdi movq %r13, %rax movq $0, 80(%rbp) vmovdqa 64(%rsp), %xmm0 vpxor 48(%rbp), %xmm0, %xmm0 vpshufb .LCPI6_0(%rip), %xmm0, %xmm0 vmovdqa 240(%rsi), %xmm1 vpxor (%rbp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI6_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rbp) movq 80(%rsp), %r8 movq 32(%rsp), %rdx movq 16(%rsp), %r11 cmpq $96, %rbx jae .LBB6_16 .LBB6_14: cmpq $16, %rbx jb .LBB6_15 .LBB6_19: vmovdqa (%rdi), %xmm5 vmovdqa 32(%rdi), %xmm0 vmovdqa 240(%rsi), %xmm1 vmovaps (%rsi), %xmm2 vmovaps %xmm2, 16(%rsp) vmovaps 16(%rsi), %xmm2 vmovaps %xmm2, 48(%rsp) vmovaps 32(%rsi), %xmm2 vmovaps %xmm2, 32(%rsp) vmovaps 48(%rsi), %xmm2 vmovaps %xmm2, 80(%rsp) vmovaps 64(%rsi), %xmm2 vmovaps %xmm2, 64(%rsp) vmovaps 80(%rsi), %xmm2 vmovaps %xmm2, 128(%rsp) vmovaps 96(%rsi), %xmm2 vmovaps %xmm2, 112(%rsp) vmovaps 112(%rsi), %xmm2 vmovaps %xmm2, 96(%rsp) vmovdqa 128(%rsi), %xmm10 vmovdqa 144(%rsi), %xmm11 vmovdqa 160(%rsi), %xmm12 vmovdqa 176(%rsi), %xmm13 vmovdqa 192(%rsi), %xmm14 vmovdqa 208(%rsi), %xmm15 vmovdqa 224(%rsi), %xmm2 vmovdqa .LCPI6_0(%rip), %xmm3 vpbroadcastq .LCPI6_8(%rip), %xmm4 .p2align 4, 0x90 .LBB6_20: vmovdqu (%rdx), %xmm6 vpshufb %xmm3, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $0, %xmm5, %xmm1, %xmm7 vpclmulqdq $1, %xmm5, %xmm1, %xmm8 vpclmulqdq $16, %xmm5, %xmm1, %xmm9 vpxor %xmm8, %xmm9, %xmm8 vpslldq $8, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $17, %xmm5, %xmm1, %xmm5 vpsrldq $8, %xmm8, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $16, %xmm4, %xmm7, %xmm8 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpshufd $78, %xmm7, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpshufb %xmm3, %xmm0, %xmm8 vpxor 16(%rsp), %xmm8, %xmm8 vaesenc 48(%rsp), %xmm8, %xmm8 vaesenc 32(%rsp), %xmm8, %xmm8 vaesenc 80(%rsp), %xmm8, %xmm8 vaesenc 64(%rsp), %xmm8, %xmm8 vaesenc 128(%rsp), %xmm8, %xmm8 vaesenc 112(%rsp), %xmm8, %xmm8 vaesenc 96(%rsp), %xmm8, %xmm8 vaesenc %xmm10, %xmm8, %xmm8 vaesenc %xmm11, %xmm8, %xmm8 vaesenc %xmm12, %xmm8, %xmm8 vaesenc %xmm13, %xmm8, %xmm8 vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm15, %xmm8, %xmm8 vaesenclast %xmm2, %xmm8, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vmovdqu %xmm6, (%r8) vpclmulqdq $16, %xmm4, %xmm7, %xmm6 vpxor %xmm5, %xmm6, %xmm5 addq $16, %r8 addq $-16, %rbx addq $16, %rdx vpaddd .LCPI6_2(%rip), %xmm0, %xmm0 cmpq $15, %rbx ja .LBB6_20 vmovdqa %xmm0, 32(%rdi) vmovdqa %xmm5, (%rdi) testq %rbx, %rbx je .LBB6_24 .LBB6_22: movq %r11, 16(%rsp) movq %rax, %r12 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rax movq memcpy@GOTPCREL(%rip), %r15 movq %rdi, %rbp movq %rax, %rdi movq %rsi, %r13 movq %rdx, %rsi movq %rbx, %rdx movq %r8, %r14 vzeroupper callq *%r15 vmovdqa 32(%rbp), %xmm0 vpshufb .LCPI6_0(%rip), %xmm0, %xmm1 vpaddd .LCPI6_2(%rip), %xmm0, %xmm0 vmovdqa %xmm0, 32(%rbp) vpxor (%r13), %xmm1, %xmm0 vaesenc 16(%r13), %xmm0, %xmm0 vaesenc 32(%r13), %xmm0, %xmm0 vaesenc 48(%r13), %xmm0, %xmm0 vaesenc 64(%r13), %xmm0, %xmm0 vaesenc 80(%r13), %xmm0, %xmm0 vaesenc 96(%r13), %xmm0, %xmm0 vaesenc 112(%r13), %xmm0, %xmm0 vaesenc 128(%r13), %xmm0, %xmm0 vaesenc 144(%r13), %xmm0, %xmm0 vaesenc 160(%r13), %xmm0, %xmm0 vaesenc 176(%r13), %xmm0, %xmm0 vaesenc 192(%r13), %xmm0, %xmm0 vaesenc 208(%r13), %xmm0, %xmm0 vmovdqa (%rsp), %xmm1 vaesenclast 224(%r13), %xmm0, %xmm0 vmovdqa %xmm0, 48(%rsp) vpxor %xmm1, %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) vmovdqa %xmm0, (%rsp) movq %rsp, %rsi movq %r14, %rdi movq %rbx, %rdx callq *%r15 movq %rbp, %rdi vmovaps 48(%rsp), %xmm0 vmovaps %xmm0, 48(%rbp) vmovdqa 32(%rsp), %xmm0 vmovdqa %xmm0, 64(%rbp) .LBB6_23: movq %rbx, 80(%rdi) movq %r12, %rax movq 16(%rsp), %r11 .LBB6_24: movq %r11, 104(%rdi) addq $456, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp vzeroupper retq .Lfunc_end6: .size haberdashery_aes256gcm_streaming_skylake_decrypt_update, .Lfunc_end6-haberdashery_aes256gcm_streaming_skylake_decrypt_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI7_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI7_1: .zero 8 .quad -4467570830351532032 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI7_2: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_streaming_skylake_decrypt_finalize,"ax",@progbits .globl haberdashery_aes256gcm_streaming_skylake_decrypt_finalize .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_skylake_decrypt_finalize,@function haberdashery_aes256gcm_streaming_skylake_decrypt_finalize: .cfi_startproc xorl %eax, %eax cmpq $16, %rcx jne .LBB7_10 pushq %r15 .cfi_def_cfa_offset 16 pushq %r14 .cfi_def_cfa_offset 24 pushq %r13 .cfi_def_cfa_offset 32 pushq %r12 .cfi_def_cfa_offset 40 pushq %rbx .cfi_def_cfa_offset 48 subq $48, %rsp .cfi_def_cfa_offset 96 .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r13, -32 .cfi_offset %r14, -24 .cfi_offset %r15, -16 vmovdqu (%rdx), %xmm5 movq 104(%rdi), %r14 testq %r14, %r14 je .LBB7_2 vmovdqa %xmm5, (%rsp) movq %rsi, %r12 leaq 48(%rdi), %r15 vmovaps 48(%rdi), %xmm0 vxorps 64(%rdi), %xmm0, %xmm0 movq 80(%rdi), %rbx vmovaps %xmm0, 32(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 16(%rsp) leaq 16(%rsp), %rax leaq 32(%rsp), %rsi movq %rdi, %r13 movq %rax, %rdi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) movq %r13, %rdi vmovdqa (%r13), %xmm0 testq %rbx, %rbx je .LBB7_5 vmovdqa 16(%rsp), %xmm1 vpshufb .LCPI7_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm2 movq %r12, %rsi vmovdqa 240(%r12), %xmm3 vpclmulqdq $0, %xmm2, %xmm3, %xmm0 vpclmulqdq $1, %xmm2, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm3, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm2, %xmm3, %xmm2 vmovdqa (%rsp), %xmm5 jmp .LBB7_7 .LBB7_2: cmpq $0, 80(%rdi) vmovdqa (%rdi), %xmm0 je .LBB7_9 vmovdqa 240(%rsi), %xmm2 leaq 48(%rdi), %r15 vmovdqa 64(%rdi), %xmm1 vpshufb .LCPI7_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm3 vpclmulqdq $0, %xmm3, %xmm2, %xmm0 vpclmulqdq $1, %xmm3, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm3, %xmm2, %xmm2 .LBB7_7: vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI7_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm0 jmp .LBB7_8 .LBB7_5: movq %r12, %rsi vmovdqa (%rsp), %xmm5 .LBB7_8: vpxor %xmm1, %xmm1, %xmm1 vmovdqu %ymm1, (%r15) movq $0, 32(%r15) .LBB7_9: vmovdqa 240(%rsi), %xmm1 vmovq 96(%rdi), %xmm2 vmovq %r14, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI7_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rdi) vmovdqa (%rsi), %xmm1 vpxor 16(%rdi), %xmm1, %xmm1 vaesenc 16(%rsi), %xmm1, %xmm1 vaesenc 32(%rsi), %xmm1, %xmm1 vaesenc 48(%rsi), %xmm1, %xmm1 vaesenc 64(%rsi), %xmm1, %xmm1 vaesenc 80(%rsi), %xmm1, %xmm1 vaesenc 96(%rsi), %xmm1, %xmm1 vaesenc 112(%rsi), %xmm1, %xmm1 vaesenc 128(%rsi), %xmm1, %xmm1 vaesenc 144(%rsi), %xmm1, %xmm1 vaesenc 160(%rsi), %xmm1, %xmm1 vaesenc 176(%rsi), %xmm1, %xmm1 vaesenc 192(%rsi), %xmm1, %xmm1 vaesenc 208(%rsi), %xmm1, %xmm1 vaesenclast 224(%rsi), %xmm1, %xmm1 vpshufb .LCPI7_0(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpxor %xmm1, %xmm0, %xmm0 xorl %eax, %eax vptest %xmm0, %xmm0 sete %al addq $48, %rsp .cfi_def_cfa_offset 48 popq %rbx .cfi_def_cfa_offset 40 popq %r12 .cfi_def_cfa_offset 32 popq %r13 .cfi_def_cfa_offset 24 popq %r14 .cfi_def_cfa_offset 16 popq %r15 .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .LBB7_10: vzeroupper retq .Lfunc_end7: .size haberdashery_aes256gcm_streaming_skylake_decrypt_finalize, .Lfunc_end7-haberdashery_aes256gcm_streaming_skylake_decrypt_finalize .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
65,153
asm/aes128gcm_streaming_broadwell.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI0_1: .zero 8 .quad -4467570830351532032 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_2: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_streaming_broadwell_init_key,"ax",@progbits .globl haberdashery_aes128gcm_streaming_broadwell_init_key .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_broadwell_init_key,@function haberdashery_aes128gcm_streaming_broadwell_init_key: .cfi_startproc cmpq $16, %rdx jne .LBB0_2 vmovdqu (%rsi), %xmm2 vpslldq $4, %xmm2, %xmm0 vpslldq $8, %xmm2, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm2, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vaeskeygenassist $1, %xmm2, %xmm1 vpshufd $255, %xmm1, %xmm1 vpxor %xmm2, %xmm0, %xmm0 vmovdqa %xmm2, %xmm10 vmovdqa %xmm2, -56(%rsp) vpxor %xmm0, %xmm1, %xmm1 vpslldq $4, %xmm1, %xmm0 vpslldq $8, %xmm1, %xmm2 vaeskeygenassist $2, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpslldq $12, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpshufd $255, %xmm3, %xmm2 vpxor %xmm1, %xmm0, %xmm0 vmovdqa %xmm1, -24(%rsp) vpxor %xmm0, %xmm2, %xmm2 vpslldq $4, %xmm2, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vaeskeygenassist $4, %xmm2, %xmm3 vpslldq $12, %xmm2, %xmm4 vpxor %xmm4, %xmm0, %xmm0 vpshufd $255, %xmm3, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm3 vpslldq $4, %xmm3, %xmm0 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm0, %xmm0 vpslldq $12, %xmm3, %xmm4 vaeskeygenassist $8, %xmm3, %xmm5 vpxor %xmm4, %xmm0, %xmm0 vpshufd $255, %xmm5, %xmm4 vpxor %xmm3, %xmm0, %xmm0 vpxor %xmm0, %xmm4, %xmm4 vpslldq $4, %xmm4, %xmm0 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpslldq $12, %xmm4, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vaeskeygenassist $16, %xmm4, %xmm5 vpshufd $255, %xmm5, %xmm5 vpxor %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm5 vpslldq $4, %xmm5, %xmm0 vpslldq $8, %xmm5, %xmm6 vaeskeygenassist $32, %xmm5, %xmm7 vpxor %xmm6, %xmm0, %xmm0 vpslldq $12, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpshufd $255, %xmm7, %xmm6 vpxor %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpslldq $4, %xmm6, %xmm0 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vaeskeygenassist $64, %xmm6, %xmm7 vpslldq $12, %xmm6, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vpshufd $255, %xmm7, %xmm7 vpxor %xmm6, %xmm0, %xmm0 vpxor %xmm0, %xmm7, %xmm7 vpslldq $4, %xmm7, %xmm0 vpslldq $8, %xmm7, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vpslldq $12, %xmm7, %xmm8 vaeskeygenassist $128, %xmm7, %xmm9 vpxor %xmm0, %xmm8, %xmm0 vpshufd $255, %xmm9, %xmm8 vpxor %xmm7, %xmm0, %xmm0 vpxor %xmm0, %xmm8, %xmm8 vpslldq $4, %xmm8, %xmm0 vpslldq $8, %xmm8, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpslldq $12, %xmm8, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vaeskeygenassist $27, %xmm8, %xmm9 vpshufd $255, %xmm9, %xmm9 vpxor %xmm0, %xmm8, %xmm0 vpxor %xmm0, %xmm9, %xmm9 vpslldq $4, %xmm9, %xmm0 vpslldq $8, %xmm9, %xmm11 vaeskeygenassist $54, %xmm9, %xmm12 vpxor %xmm0, %xmm11, %xmm0 vpslldq $12, %xmm9, %xmm11 vpxor %xmm0, %xmm11, %xmm0 vpshufd $255, %xmm12, %xmm11 vpxor %xmm0, %xmm9, %xmm0 vpxor %xmm0, %xmm11, %xmm11 vmovdqa %xmm11, -40(%rsp) vaesenc %xmm1, %xmm10, %xmm0 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenclast %xmm11, %xmm0, %xmm0 vpshufb .LCPI0_0(%rip), %xmm0, %xmm0 vpsrlq $63, %xmm0, %xmm11 vpaddq %xmm0, %xmm0, %xmm0 vpshufd $78, %xmm11, %xmm12 vpor %xmm0, %xmm12, %xmm0 vpxor %xmm12, %xmm12, %xmm12 vpblendd $12, %xmm11, %xmm12, %xmm11 vpsllq $63, %xmm11, %xmm12 vpxor %xmm0, %xmm12, %xmm0 vpsllq $62, %xmm11, %xmm12 vpsllq $57, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpxor %xmm0, %xmm11, %xmm11 vpclmulqdq $0, %xmm11, %xmm11, %xmm0 vpbroadcastq .LCPI0_2(%rip), %xmm13 vpclmulqdq $16, %xmm13, %xmm0, %xmm12 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm0 vpclmulqdq $16, %xmm13, %xmm0, %xmm12 vpclmulqdq $17, %xmm11, %xmm11, %xmm14 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpclmulqdq $16, %xmm11, %xmm12, %xmm0 vpclmulqdq $1, %xmm11, %xmm12, %xmm14 vpxor %xmm0, %xmm14, %xmm0 vpclmulqdq $0, %xmm11, %xmm12, %xmm14 vpslldq $8, %xmm0, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $16, %xmm13, %xmm14, %xmm15 vpshufd $78, %xmm14, %xmm14 vpxor %xmm14, %xmm15, %xmm14 vpsrldq $8, %xmm0, %xmm0 vpclmulqdq $17, %xmm11, %xmm12, %xmm15 vpxor %xmm0, %xmm15, %xmm0 vpshufd $78, %xmm14, %xmm15 vpxor %xmm0, %xmm15, %xmm0 vpclmulqdq $16, %xmm13, %xmm14, %xmm14 vpxor %xmm0, %xmm14, %xmm14 vpclmulqdq $0, %xmm14, %xmm14, %xmm0 vpclmulqdq $16, %xmm13, %xmm0, %xmm15 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm15, %xmm0 vpclmulqdq $17, %xmm14, %xmm14, %xmm15 vpshufd $78, %xmm0, %xmm10 vpxor %xmm10, %xmm15, %xmm10 vpclmulqdq $16, %xmm13, %xmm0, %xmm0 vpxor %xmm0, %xmm10, %xmm0 vmovdqa %xmm0, -72(%rsp) vpclmulqdq $0, %xmm12, %xmm12, %xmm0 vpclmulqdq $16, %xmm13, %xmm0, %xmm10 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $17, %xmm12, %xmm12, %xmm10 vpshufd $78, %xmm0, %xmm15 vpxor %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm13, %xmm0, %xmm0 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $16, %xmm11, %xmm0, %xmm10 vpclmulqdq $1, %xmm11, %xmm0, %xmm15 vpxor %xmm10, %xmm15, %xmm10 vpclmulqdq $0, %xmm11, %xmm0, %xmm15 vpslldq $8, %xmm10, %xmm1 vpxor %xmm1, %xmm15, %xmm1 vpclmulqdq $16, %xmm13, %xmm1, %xmm15 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm15, %xmm1 vpsrldq $8, %xmm10, %xmm10 vpclmulqdq $17, %xmm11, %xmm0, %xmm15 vpxor %xmm10, %xmm15, %xmm10 vpclmulqdq $16, %xmm13, %xmm1, %xmm13 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm10, %xmm1 vpxor %xmm1, %xmm13, %xmm1 vmovaps -56(%rsp), %xmm10 vmovaps %xmm10, (%rdi) vmovaps -24(%rsp), %xmm10 vmovaps %xmm10, 16(%rdi) vmovdqa %xmm2, 32(%rdi) vmovdqa %xmm3, 48(%rdi) vmovdqa %xmm4, 64(%rdi) vmovdqa %xmm5, 80(%rdi) vmovdqa %xmm6, 96(%rdi) vmovdqa %xmm7, 112(%rdi) vmovdqa %xmm8, 128(%rdi) vmovdqa %xmm9, 144(%rdi) vmovaps -40(%rsp), %xmm2 vmovaps %xmm2, 160(%rdi) vmovdqa %xmm11, 176(%rdi) vmovdqa %xmm12, 192(%rdi) vmovdqa %xmm14, 208(%rdi) vmovdqa %xmm0, 224(%rdi) vmovdqa %xmm1, 240(%rdi) vmovaps -72(%rsp), %xmm0 vmovaps %xmm0, 256(%rdi) .LBB0_2: xorl %eax, %eax cmpq $16, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes128gcm_streaming_broadwell_init_key, .Lfunc_end0-haberdashery_aes128gcm_streaming_broadwell_init_key .cfi_endproc .section .text.haberdashery_aes128gcm_streaming_broadwell_is_supported,"ax",@progbits .globl haberdashery_aes128gcm_streaming_broadwell_is_supported .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_broadwell_is_supported,@function haberdashery_aes128gcm_streaming_broadwell_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $786729, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end1: .size haberdashery_aes128gcm_streaming_broadwell_is_supported, .Lfunc_end1-haberdashery_aes128gcm_streaming_broadwell_is_supported .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_1: .long 1 .long 0 .long 0 .long 0 .section .text.haberdashery_aes128gcm_streaming_broadwell_init_state,"ax",@progbits .globl haberdashery_aes128gcm_streaming_broadwell_init_state .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_broadwell_init_state,@function haberdashery_aes128gcm_streaming_broadwell_init_state: .cfi_startproc cmpq $12, %rcx jne .LBB2_2 vmovd (%rdx), %xmm0 vpinsrd $1, 4(%rdx), %xmm0, %xmm0 vpinsrd $2, 8(%rdx), %xmm0, %xmm0 movl $16777216, %eax vpinsrd $3, %eax, %xmm0, %xmm0 vpshufb .LCPI2_0(%rip), %xmm0, %xmm1 vpaddd .LCPI2_1(%rip), %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmovups %ymm2, -56(%rsp) vmovups %ymm2, -88(%rsp) movq $0, -24(%rsp) vxorps %xmm2, %xmm2, %xmm2 vmovaps %xmm2, (%rdi) vmovdqa %xmm0, 16(%rdi) vmovdqa %xmm1, 32(%rdi) vmovups -56(%rsp), %ymm0 vmovups -40(%rsp), %xmm1 movq -24(%rsp), %rax movq -16(%rsp), %rdx vmovups %ymm0, 48(%rdi) vmovups %xmm1, 64(%rdi) movq %rax, 80(%rdi) movq %rdx, 88(%rdi) vmovaps %xmm2, 96(%rdi) .LBB2_2: xorl %eax, %eax cmpq $12, %rcx sete %al vzeroupper retq .Lfunc_end2: .size haberdashery_aes128gcm_streaming_broadwell_init_state, .Lfunc_end2-haberdashery_aes128gcm_streaming_broadwell_init_state .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI3_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI3_1: .zero 8 .quad -4467570830351532032 .LCPI3_2: .zero 16 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI3_3: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_streaming_broadwell_aad_update,"ax",@progbits .globl haberdashery_aes128gcm_streaming_broadwell_aad_update .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_broadwell_aad_update,@function haberdashery_aes128gcm_streaming_broadwell_aad_update: .cfi_startproc movabsq $-2305843009213693951, %rax leaq (%rcx,%rax), %r8 incq %rax cmpq %rax, %r8 jae .LBB3_3 xorl %eax, %eax retq .LBB3_3: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $24, %rsp .cfi_def_cfa_offset 80 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 96(%rdi), %r14 addq %rcx, %r14 xorl %eax, %eax movabsq $2305843009213693950, %r8 cmpq %r8, %r14 ja .LBB3_26 cmpq $0, 104(%rdi) jne .LBB3_26 movq 80(%rdi), %r8 testq %r8, %r8 je .LBB3_6 leaq (%r8,%rcx), %rbx cmpq $15, %rbx ja .LBB3_9 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%r8), %rax movq %rdi, %r15 movq %rax, %rdi movq %rdx, %rsi movq %rcx, %rdx movq %rcx, %r12 callq *memcpy@GOTPCREL(%rip) movq %r15, %rdi movq %r12, %rcx vmovdqa 64(%r15), %xmm0 vpxor (%rsp), %xmm0, %xmm0 jmp .LBB3_24 .LBB3_6: movq %rcx, %rbx cmpq $96, %rbx jae .LBB3_11 jmp .LBB3_14 .LBB3_9: vmovaps 64(%rdi), %xmm0 vmovaps %xmm0, (%rsp) movl $16, %eax subq %r8, %rax addq %rsp, %r8 leaq (%rdx,%rax), %r15 movq %rcx, %rbx subq %rax, %rbx movq %rdi, %r12 movq %r8, %rdi movq %rsi, %r13 movq %rdx, %rsi movq %rax, %rdx movq %rcx, %rbp callq *memcpy@GOTPCREL(%rip) movq %r13, %rsi movq %r12, %rdi movq %rbp, %rcx movq $0, 80(%r12) vmovdqa (%rsp), %xmm0 vmovdqa 176(%r13), %xmm1 vpshufb .LCPI3_0(%rip), %xmm0, %xmm0 vpxor (%r12), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI3_3(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%r12) movq %r15, %rdx cmpq $96, %rbx jb .LBB3_14 .LBB3_11: vmovdqu 32(%rdx), %xmm1 vmovdqu 48(%rdx), %xmm2 vmovdqu 64(%rdx), %xmm3 vmovdqu 80(%rdx), %xmm4 vmovdqa .LCPI3_0(%rip), %xmm0 vpshufb %xmm0, %xmm1, %xmm6 vpshufb %xmm0, %xmm2, %xmm5 vpshufb %xmm0, %xmm3, %xmm7 vpshufb %xmm0, %xmm4, %xmm8 vmovdqa 176(%rsi), %xmm1 vmovdqa 192(%rsi), %xmm2 vmovdqa 208(%rsi), %xmm3 vmovdqa 224(%rsi), %xmm4 vpclmulqdq $0, %xmm8, %xmm1, %xmm9 vpclmulqdq $1, %xmm8, %xmm1, %xmm10 vpclmulqdq $16, %xmm8, %xmm1, %xmm11 vpxor %xmm10, %xmm11, %xmm10 vpclmulqdq $17, %xmm8, %xmm1, %xmm8 vpclmulqdq $0, %xmm7, %xmm2, %xmm11 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $1, %xmm7, %xmm2, %xmm11 vpclmulqdq $16, %xmm7, %xmm2, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpclmulqdq $17, %xmm7, %xmm2, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm5, %xmm3, %xmm8 vpclmulqdq $1, %xmm5, %xmm3, %xmm11 vpclmulqdq $16, %xmm5, %xmm3, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpclmulqdq $0, %xmm6, %xmm4, %xmm12 vpxor %xmm12, %xmm8, %xmm8 vmovdqu (%rdx), %xmm12 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $1, %xmm6, %xmm4, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vmovdqu 16(%rdx), %xmm11 vpshufb %xmm0, %xmm12, %xmm12 vpshufb %xmm0, %xmm11, %xmm11 vpxor (%rdi), %xmm12, %xmm12 vpclmulqdq $17, %xmm5, %xmm3, %xmm5 vpxor %xmm9, %xmm10, %xmm9 vpclmulqdq $17, %xmm6, %xmm4, %xmm10 vpxor %xmm5, %xmm10, %xmm10 vmovdqa 240(%rsi), %xmm5 vpclmulqdq $16, %xmm6, %xmm4, %xmm6 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $0, %xmm11, %xmm5, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $1, %xmm11, %xmm5, %xmm10 vpxor %xmm6, %xmm10, %xmm6 vpclmulqdq $16, %xmm11, %xmm5, %xmm10 vpxor %xmm6, %xmm10, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vmovdqa 256(%rsi), %xmm6 vpclmulqdq $17, %xmm11, %xmm5, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $0, %xmm12, %xmm6, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $1, %xmm12, %xmm6, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $16, %xmm12, %xmm6, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $17, %xmm12, %xmm6, %xmm10 vpxor %xmm7, %xmm10, %xmm10 addq $96, %rdx addq $-96, %rbx cmpq $96, %rbx jb .LBB3_13 .p2align 4, 0x90 .LBB3_12: vmovdqu (%rdx), %xmm11 vmovdqu 32(%rdx), %xmm12 vmovdqu 48(%rdx), %xmm13 vmovdqu 64(%rdx), %xmm14 vmovdqu 80(%rdx), %xmm15 vpslldq $8, %xmm9, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpsrldq $8, %xmm9, %xmm8 vpxor %xmm8, %xmm10, %xmm8 vpbroadcastq .LCPI3_3(%rip), %xmm10 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpshufb %xmm0, %xmm11, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor %xmm7, %xmm9, %xmm10 vpshufb %xmm0, %xmm12, %xmm8 vpshufb %xmm0, %xmm13, %xmm7 vpshufb %xmm0, %xmm14, %xmm9 vpshufb %xmm0, %xmm15, %xmm11 vpclmulqdq $0, %xmm11, %xmm1, %xmm12 vpclmulqdq $1, %xmm11, %xmm1, %xmm13 vpclmulqdq $16, %xmm11, %xmm1, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $17, %xmm11, %xmm1, %xmm11 vpclmulqdq $0, %xmm9, %xmm2, %xmm14 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $1, %xmm9, %xmm2, %xmm14 vpclmulqdq $16, %xmm9, %xmm2, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpclmulqdq $17, %xmm9, %xmm2, %xmm9 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $0, %xmm7, %xmm3, %xmm11 vpclmulqdq $1, %xmm7, %xmm3, %xmm14 vpclmulqdq $16, %xmm7, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $0, %xmm8, %xmm4, %xmm15 vpxor %xmm15, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $1, %xmm8, %xmm4, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $17, %xmm7, %xmm3, %xmm7 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm8, %xmm4, %xmm13 vpxor %xmm7, %xmm13, %xmm7 vmovdqu 16(%rdx), %xmm13 vpshufb %xmm0, %xmm13, %xmm13 vpclmulqdq $16, %xmm8, %xmm4, %xmm8 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm13, %xmm5, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $1, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $16, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpxor %xmm8, %xmm12, %xmm11 vpclmulqdq $17, %xmm13, %xmm5, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm10, %xmm6, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $1, %xmm10, %xmm6, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $16, %xmm10, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $17, %xmm10, %xmm6, %xmm10 vpxor %xmm7, %xmm10, %xmm10 addq $96, %rdx addq $-96, %rbx cmpq $95, %rbx ja .LBB3_12 .LBB3_13: vpslldq $8, %xmm9, %xmm0 vpxor %xmm0, %xmm8, %xmm0 vpsrldq $8, %xmm9, %xmm1 vpxor %xmm1, %xmm10, %xmm1 vpbroadcastq .LCPI3_3(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vmovdqa %xmm0, (%rdi) .LBB3_14: cmpq $16, %rbx jae .LBB3_15 testq %rbx, %rbx jne .LBB3_23 jmp .LBB3_25 .LBB3_15: vmovdqa (%rdi), %xmm1 vmovdqa 176(%rsi), %xmm0 leaq -16(%rbx), %rax testb $16, %al jne .LBB3_17 vmovdqu (%rdx), %xmm2 vpshufb .LCPI3_0(%rip), %xmm2, %xmm2 addq $16, %rdx vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpbroadcastq .LCPI3_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm3, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 movq %rax, %rbx .LBB3_17: cmpq $16, %rax jb .LBB3_21 vmovdqa .LCPI3_0(%rip), %xmm2 vpbroadcastq .LCPI3_3(%rip), %xmm3 .p2align 4, 0x90 .LBB3_19: vmovdqu (%rdx), %xmm4 vmovdqu 16(%rdx), %xmm5 vpshufb %xmm2, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 addq $32, %rdx addq $-32, %rbx vpshufb %xmm2, %xmm5, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm6, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $16, %xmm1, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm1 cmpq $15, %rbx ja .LBB3_19 movq %rbx, %rax .LBB3_21: vmovdqa %xmm1, (%rdi) movq %rax, %rbx testq %rbx, %rbx je .LBB3_25 .LBB3_23: vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rax movq %rdi, %r15 movq %rax, %rdi movq %rdx, %rsi movq %rbx, %rdx movq %rcx, %r12 callq *memcpy@GOTPCREL(%rip) movq %r15, %rdi movq %r12, %rcx vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 48(%r15) vmovdqa (%rsp), %xmm0 .LBB3_24: vmovdqa %xmm0, 64(%r15) movq %rbx, 80(%r15) .LBB3_25: movq %r14, 96(%rdi) movq %rcx, %rax .LBB3_26: addq $24, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp retq .Lfunc_end3: .size haberdashery_aes128gcm_streaming_broadwell_aad_update, .Lfunc_end3-haberdashery_aes128gcm_streaming_broadwell_aad_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI4_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI4_1: .zero 8 .quad -4467570830351532032 .LCPI4_2: .long 1 .long 0 .long 0 .long 0 .LCPI4_3: .long 2 .long 0 .long 0 .long 0 .LCPI4_4: .long 3 .long 0 .long 0 .long 0 .LCPI4_5: .long 4 .long 0 .long 0 .long 0 .LCPI4_6: .long 5 .long 0 .long 0 .long 0 .LCPI4_7: .long 6 .long 0 .long 0 .long 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI4_8: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_streaming_broadwell_encrypt_update,"ax",@progbits .globl haberdashery_aes128gcm_streaming_broadwell_encrypt_update .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_broadwell_encrypt_update,@function haberdashery_aes128gcm_streaming_broadwell_encrypt_update: .cfi_startproc cmpq %r9, %rcx jne .LBB4_3 movq %rcx, %rax movabsq $-68719476704, %rcx leaq (%rax,%rcx), %r9 incq %rcx cmpq %rcx, %r9 jb .LBB4_3 movq 104(%rdi), %rcx leaq (%rcx,%rax), %r11 movq %r11, %r9 shrq $5, %r9 cmpq $2147483646, %r9 jbe .LBB4_6 .LBB4_3: xorl %eax, %eax retq .LBB4_6: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $440, %rsp .cfi_def_cfa_offset 496 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 testq %rcx, %rcx setne %r9b movq 80(%rdi), %rcx testq %rcx, %rcx sete %r10b orb %r9b, %r10b je .LBB4_10 testq %rcx, %rcx je .LBB4_11 movq %r11, 32(%rsp) movq %rdi, %rbp leaq (%rcx,%rax), %rbx cmpq $15, %rbx ja .LBB4_12 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r14 movq memcpy@GOTPCREL(%rip), %r13 movq %r14, %rdi movq %rdx, %rsi movq %rax, %rdx movq %rax, %r15 movq %r8, %r12 callq *%r13 vmovdqa (%rsp), %xmm0 vpxor 64(%rbp), %xmm0, %xmm0 vmovdqa %xmm0, 64(%rbp) vmovdqa %xmm0, (%rsp) movq %r12, %rdi movq %r14, %rsi movq %r15, %r12 movq %r15, %rdx callq *%r13 movq %rbp, %rdi jmp .LBB4_24 .LBB4_10: vmovdqa 176(%rsi), %xmm0 vmovdqa 64(%rdi), %xmm1 vpshufb .LCPI4_0(%rip), %xmm1, %xmm1 vpxor (%rdi), %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI4_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rdi) vpxor %xmm0, %xmm0, %xmm0 vmovdqu %ymm0, 48(%rdi) movq $0, 80(%rdi) .LBB4_11: movq %rax, %rbx cmpq $96, %rbx jb .LBB4_14 .LBB4_16: vmovups (%rdx), %xmm0 vmovaps %xmm0, 32(%rsp) vmovups 16(%rdx), %xmm0 vmovaps %xmm0, 16(%rsp) vmovdqu 32(%rdx), %xmm3 vmovdqu 48(%rdx), %xmm4 vmovdqu 64(%rdx), %xmm6 vmovdqu 80(%rdx), %xmm5 vmovdqa 32(%rdi), %xmm1 vmovdqa .LCPI4_0(%rip), %xmm8 vpaddd .LCPI4_2(%rip), %xmm1, %xmm7 vpshufb %xmm8, %xmm1, %xmm9 vpshufb %xmm8, %xmm7, %xmm10 vpaddd .LCPI4_3(%rip), %xmm1, %xmm7 vpshufb %xmm8, %xmm7, %xmm11 vpaddd .LCPI4_4(%rip), %xmm1, %xmm7 vpshufb %xmm8, %xmm7, %xmm12 vpaddd .LCPI4_5(%rip), %xmm1, %xmm7 vpaddd .LCPI4_6(%rip), %xmm1, %xmm13 vpshufb %xmm8, %xmm7, %xmm14 vpshufb %xmm8, %xmm13, %xmm15 vpaddd .LCPI4_7(%rip), %xmm1, %xmm1 vmovdqa %xmm1, 32(%rdi) vmovdqa (%rsi), %xmm2 vmovaps 16(%rsi), %xmm0 vmovdqa 32(%rsi), %xmm1 vpxor %xmm2, %xmm9, %xmm7 vpxor %xmm2, %xmm10, %xmm10 vpxor %xmm2, %xmm11, %xmm11 vpxor %xmm2, %xmm12, %xmm12 vpxor %xmm2, %xmm14, %xmm13 vpxor %xmm2, %xmm15, %xmm9 vmovaps %xmm0, 352(%rsp) #APP vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm10, %xmm10 vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm12, %xmm12 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm9, %xmm9 #NO_APP vmovdqa %xmm1, %xmm0 #APP vaesenc %xmm1, %xmm7, %xmm7 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm9, %xmm9 #NO_APP vmovdqa 48(%rsi), %xmm1 #APP vaesenc %xmm1, %xmm7, %xmm7 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm9, %xmm9 #NO_APP vmovaps 64(%rsi), %xmm14 vmovaps %xmm14, 336(%rsp) #APP vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 vaesenc %xmm14, %xmm13, %xmm13 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovaps 80(%rsi), %xmm14 vmovaps %xmm14, 320(%rsp) #APP vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 vaesenc %xmm14, %xmm13, %xmm13 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovaps 96(%rsi), %xmm14 vmovaps %xmm14, 304(%rsp) #APP vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 vaesenc %xmm14, %xmm13, %xmm13 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovaps 112(%rsi), %xmm14 vmovaps %xmm14, 288(%rsp) #APP vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 vaesenc %xmm14, %xmm13, %xmm13 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovaps 128(%rsi), %xmm14 vmovaps %xmm14, 272(%rsp) #APP vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 vaesenc %xmm14, %xmm13, %xmm13 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovaps 144(%rsi), %xmm14 vmovaps %xmm14, 256(%rsp) #APP vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 vaesenc %xmm14, %xmm13, %xmm13 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovaps 160(%rsi), %xmm14 vmovaps %xmm14, 240(%rsp) #APP vaesenclast %xmm14, %xmm7, %xmm7 vaesenclast %xmm14, %xmm10, %xmm10 vaesenclast %xmm14, %xmm11, %xmm11 vaesenclast %xmm14, %xmm12, %xmm12 vaesenclast %xmm14, %xmm13, %xmm13 vaesenclast %xmm14, %xmm9, %xmm9 #NO_APP vpxor %xmm5, %xmm9, %xmm9 vpxor %xmm6, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm14 vpxor %xmm3, %xmm11, %xmm12 vpxor 16(%rsp), %xmm10, %xmm3 vpxor 32(%rsp), %xmm7, %xmm11 addq $96, %rdx leaq 96(%r8), %rcx addq $-96, %rbx vmovdqu %xmm11, (%r8) vmovdqu %xmm3, 16(%r8) vmovdqu %xmm12, 32(%r8) vmovdqu %xmm14, 48(%r8) vmovdqu %xmm13, 64(%r8) vmovdqu %xmm9, 80(%r8) vmovdqa (%rdi), %xmm15 cmpq $96, %rbx jb .LBB4_19 vmovaps 176(%rsi), %xmm4 vmovaps %xmm4, 224(%rsp) vmovaps 192(%rsi), %xmm4 vmovaps %xmm4, 208(%rsp) vmovaps 208(%rsi), %xmm4 vmovaps %xmm4, 192(%rsp) vmovaps 224(%rsi), %xmm4 vmovaps %xmm4, 176(%rsp) vmovaps 240(%rsi), %xmm4 vmovaps %xmm4, 160(%rsp) vmovdqa 256(%rsi), %xmm4 vmovdqa %xmm4, 144(%rsp) vmovdqa %xmm2, 112(%rsp) vmovdqa %xmm0, 128(%rsp) vmovdqa %xmm1, 96(%rsp) .p2align 4, 0x90 .LBB4_18: vmovdqa %xmm12, 368(%rsp) vmovdqa %xmm3, 384(%rsp) vmovups (%rdx), %xmm0 vmovaps %xmm0, 32(%rsp) vmovups 16(%rdx), %xmm0 vmovaps %xmm0, 16(%rsp) vmovups 32(%rdx), %xmm0 vmovaps %xmm0, 48(%rsp) vmovups 48(%rdx), %xmm0 vmovaps %xmm0, 80(%rsp) vmovups 64(%rdx), %xmm0 vmovaps %xmm0, 64(%rsp) vmovups 80(%rdx), %xmm0 vmovaps %xmm0, 416(%rsp) vmovdqa 32(%rdi), %xmm0 vpaddd .LCPI4_2(%rip), %xmm0, %xmm2 vpshufb %xmm8, %xmm2, %xmm3 vpaddd .LCPI4_7(%rip), %xmm0, %xmm2 vmovdqa %xmm2, 32(%rdi) vpaddd .LCPI4_3(%rip), %xmm0, %xmm2 vpshufb %xmm8, %xmm2, %xmm4 vpshufb %xmm8, %xmm11, %xmm2 vpxor %xmm2, %xmm15, %xmm1 vmovdqa %xmm1, 400(%rsp) vpaddd .LCPI4_4(%rip), %xmm0, %xmm5 vpshufb %xmm8, %xmm5, %xmm5 vpaddd .LCPI4_5(%rip), %xmm0, %xmm7 vpshufb %xmm8, %xmm7, %xmm7 vpshufb %xmm8, %xmm0, %xmm10 vpaddd .LCPI4_6(%rip), %xmm0, %xmm0 vmovdqa %xmm8, %xmm12 vpshufb %xmm8, %xmm0, %xmm8 vpshufb %xmm12, %xmm9, %xmm1 vmovdqa 112(%rsp), %xmm2 vpxor %xmm2, %xmm10, %xmm11 vpxor %xmm3, %xmm2, %xmm15 vpxor %xmm4, %xmm2, %xmm10 vpxor %xmm5, %xmm2, %xmm0 vpxor %xmm7, %xmm2, %xmm3 vpxor %xmm2, %xmm8, %xmm9 vmovaps 352(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm11, %xmm11 vaesenc %xmm2, %xmm15, %xmm15 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm9, %xmm9 #NO_APP vpxor %xmm4, %xmm4, %xmm4 vpxor %xmm5, %xmm5, %xmm5 vpxor %xmm7, %xmm7, %xmm7 vmovdqa %xmm14, %xmm2 vmovaps 224(%rsp), %xmm14 vmovaps 128(%rsp), %xmm6 #APP vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm6, %xmm10, %xmm10 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm9, %xmm9 vpclmulqdq $16, %xmm14, %xmm1, %xmm8 vpxor %xmm4, %xmm8, %xmm4 vpclmulqdq $0, %xmm14, %xmm1, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm14, %xmm1, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $1, %xmm14, %xmm1, %xmm8 vpxor %xmm4, %xmm8, %xmm4 #NO_APP vmovdqa %xmm12, %xmm8 vpshufb %xmm12, %xmm13, %xmm1 vmovaps 208(%rsp), %xmm12 vmovaps 96(%rsp), %xmm13 #APP vaesenc %xmm13, %xmm11, %xmm11 vaesenc %xmm13, %xmm15, %xmm15 vaesenc %xmm13, %xmm10, %xmm10 vaesenc %xmm13, %xmm0, %xmm0 vaesenc %xmm13, %xmm3, %xmm3 vaesenc %xmm13, %xmm9, %xmm9 vpclmulqdq $16, %xmm12, %xmm1, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $0, %xmm12, %xmm1, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpclmulqdq $17, %xmm12, %xmm1, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $1, %xmm12, %xmm1, %xmm6 vpxor %xmm6, %xmm4, %xmm4 #NO_APP vpshufb %xmm8, %xmm2, %xmm1 vmovaps 192(%rsp), %xmm2 vmovaps 336(%rsp), %xmm12 #APP vaesenc %xmm12, %xmm11, %xmm11 vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm10, %xmm10 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm9, %xmm9 vpclmulqdq $16, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $0, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpclmulqdq $17, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $1, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm4, %xmm4 #NO_APP vmovdqa 368(%rsp), %xmm1 vpshufb %xmm8, %xmm1, %xmm1 vmovaps 176(%rsp), %xmm2 vmovaps 320(%rsp), %xmm12 #APP vaesenc %xmm12, %xmm11, %xmm11 vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm10, %xmm10 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm9, %xmm9 vpclmulqdq $16, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $0, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpclmulqdq $17, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $1, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm4, %xmm4 #NO_APP vmovdqa 384(%rsp), %xmm1 vpshufb %xmm8, %xmm1, %xmm1 vmovaps 160(%rsp), %xmm2 vmovaps 304(%rsp), %xmm12 #APP vaesenc %xmm12, %xmm11, %xmm11 vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm10, %xmm10 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm9, %xmm9 vpclmulqdq $16, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $0, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpclmulqdq $17, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $1, %xmm2, %xmm1, %xmm6 vpxor %xmm6, %xmm4, %xmm4 #NO_APP vmovaps 288(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm9, %xmm9 #NO_APP vmovaps 144(%rsp), %xmm2 vmovdqa 272(%rsp), %xmm6 vmovaps 400(%rsp), %xmm12 #APP vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm6, %xmm10, %xmm10 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm9, %xmm9 vpclmulqdq $16, %xmm2, %xmm12, %xmm1 vpxor %xmm1, %xmm4, %xmm4 vpclmulqdq $0, %xmm2, %xmm12, %xmm1 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $17, %xmm2, %xmm12, %xmm1 vpxor %xmm1, %xmm5, %xmm5 vpclmulqdq $1, %xmm2, %xmm12, %xmm1 vpxor %xmm1, %xmm4, %xmm4 #NO_APP vmovaps 256(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm9, %xmm9 #NO_APP vmovdqa 240(%rsp), %xmm1 #APP vaesenclast %xmm1, %xmm11, %xmm11 vaesenclast %xmm1, %xmm15, %xmm15 vaesenclast %xmm1, %xmm10, %xmm10 vaesenclast %xmm1, %xmm0, %xmm0 vaesenclast %xmm1, %xmm3, %xmm3 vaesenclast %xmm1, %xmm9, %xmm9 #NO_APP vpxor 416(%rsp), %xmm9, %xmm9 vpxor 64(%rsp), %xmm3, %xmm13 vpxor 80(%rsp), %xmm0, %xmm14 vpxor 48(%rsp), %xmm10, %xmm12 vpxor 16(%rsp), %xmm15, %xmm3 vpxor 32(%rsp), %xmm11, %xmm11 vpxor %xmm1, %xmm1, %xmm1 vpunpcklqdq %xmm4, %xmm1, %xmm0 vpxor %xmm0, %xmm7, %xmm0 vpunpckhqdq %xmm1, %xmm4, %xmm1 vpxor %xmm1, %xmm5, %xmm1 vpbroadcastq .LCPI4_8(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpshufd $78, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm15 vmovdqu %xmm11, (%rcx) vmovdqu %xmm3, 16(%rcx) vmovdqu %xmm12, 32(%rcx) vmovdqu %xmm14, 48(%rcx) vmovdqu %xmm13, 64(%rcx) vmovdqu %xmm9, 80(%rcx) addq $96, %rdx addq $96, %rcx addq $-96, %rbx cmpq $95, %rbx ja .LBB4_18 .LBB4_19: vpshufb %xmm8, %xmm11, %xmm0 vpxor %xmm0, %xmm15, %xmm0 vpshufb %xmm8, %xmm3, %xmm1 vpshufb %xmm8, %xmm12, %xmm4 vpshufb %xmm8, %xmm14, %xmm5 vpshufb %xmm8, %xmm13, %xmm6 vpshufb %xmm8, %xmm9, %xmm7 vmovdqa 176(%rsi), %xmm8 vmovdqa 192(%rsi), %xmm9 vmovdqa 208(%rsi), %xmm10 vmovdqa 224(%rsi), %xmm11 vmovdqa 240(%rsi), %xmm3 vmovdqa 256(%rsi), %xmm2 vpclmulqdq $0, %xmm7, %xmm8, %xmm12 vpclmulqdq $1, %xmm7, %xmm8, %xmm13 vpclmulqdq $16, %xmm7, %xmm8, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $17, %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm6, %xmm9, %xmm8 vpxor %xmm12, %xmm8, %xmm8 vpclmulqdq $1, %xmm6, %xmm9, %xmm12 vpclmulqdq $16, %xmm6, %xmm9, %xmm14 vpxor %xmm14, %xmm12, %xmm12 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm6, %xmm9, %xmm6 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm10, %xmm7 vpclmulqdq $1, %xmm5, %xmm10, %xmm9 vpclmulqdq $16, %xmm5, %xmm10, %xmm13 vpxor %xmm13, %xmm9, %xmm9 vpclmulqdq $17, %xmm5, %xmm10, %xmm5 vpclmulqdq $0, %xmm4, %xmm11, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $1, %xmm4, %xmm11, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpxor %xmm8, %xmm12, %xmm8 vpclmulqdq $16, %xmm4, %xmm11, %xmm9 vpclmulqdq $17, %xmm4, %xmm11, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $0, %xmm1, %xmm3, %xmm5 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $1, %xmm1, %xmm3, %xmm6 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $16, %xmm1, %xmm3, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm1, %xmm3, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $0, %xmm0, %xmm2, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $1, %xmm0, %xmm2, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm0, %xmm2, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $17, %xmm0, %xmm2, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm4, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpsrldq $8, %xmm4, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI4_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vmovdqa %xmm0, (%rdi) movq %rcx, %r8 cmpq $16, %rbx jae .LBB4_20 .LBB4_15: testq %rbx, %rbx jne .LBB4_23 jmp .LBB4_25 .LBB4_12: movl $16, %r14d subq %rcx, %r14 leaq (%rdx,%r14), %rdi movq %rdi, 48(%rsp) leaq (%r8,%r14), %rdi movq %rdi, 80(%rsp) movq %rax, %rbx subq %r14, %rbx vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r15 movq %r15, %rdi movq %rsi, 16(%rsp) movq %rdx, %rsi movq %r14, %rdx movq %rax, %r13 movq %r8, %r12 callq *memcpy@GOTPCREL(%rip) vmovaps (%rsp), %xmm0 vxorps 64(%rbp), %xmm0, %xmm0 vmovaps %xmm0, 64(%rsp) vmovaps %xmm0, 64(%rbp) vmovaps %xmm0, (%rsp) movq %r12, %rdi movq %r15, %rsi movq %r14, %rdx callq *memcpy@GOTPCREL(%rip) movq 16(%rsp), %rsi movq %rbp, %rdi movq %r13, %rax movq $0, 80(%rbp) vmovdqa 64(%rsp), %xmm0 vpshufb .LCPI4_0(%rip), %xmm0, %xmm0 vmovdqa 176(%rsi), %xmm1 vpxor (%rbp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI4_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rbp) movq 80(%rsp), %r8 movq 48(%rsp), %rdx movq 32(%rsp), %r11 cmpq $96, %rbx jae .LBB4_16 .LBB4_14: cmpq $16, %rbx jb .LBB4_15 .LBB4_20: vmovdqa (%rdi), %xmm14 vmovdqa 32(%rdi), %xmm0 vmovaps (%rsi), %xmm1 vmovaps %xmm1, 32(%rsp) vmovaps 16(%rsi), %xmm1 vmovaps %xmm1, 16(%rsp) vmovdqa 32(%rsi), %xmm1 vmovdqa %xmm1, 48(%rsp) vmovdqa 48(%rsi), %xmm4 vmovdqa 64(%rsi), %xmm5 vmovdqa 80(%rsi), %xmm6 vmovdqa 96(%rsi), %xmm7 vmovdqa 112(%rsi), %xmm8 vmovdqa 128(%rsi), %xmm9 vmovdqa 144(%rsi), %xmm10 vmovdqa 160(%rsi), %xmm11 vmovdqa 176(%rsi), %xmm12 vmovdqa .LCPI4_0(%rip), %xmm13 vpbroadcastq .LCPI4_8(%rip), %xmm15 .p2align 4, 0x90 .LBB4_21: vpshufb %xmm13, %xmm0, %xmm1 vpxor 32(%rsp), %xmm1, %xmm1 vaesenc 16(%rsp), %xmm1, %xmm1 vaesenc 48(%rsp), %xmm1, %xmm1 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm5, %xmm1, %xmm1 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm10, %xmm1, %xmm1 vaesenclast %xmm11, %xmm1, %xmm1 vpxor (%rdx), %xmm1, %xmm1 vmovdqu %xmm1, (%r8) vpshufb %xmm13, %xmm1, %xmm1 vpxor %xmm1, %xmm14, %xmm1 vpclmulqdq $0, %xmm1, %xmm12, %xmm14 vpclmulqdq $1, %xmm1, %xmm12, %xmm2 vpclmulqdq $16, %xmm1, %xmm12, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm14, %xmm3 vpclmulqdq $17, %xmm1, %xmm12, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm15, %xmm3, %xmm2 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpshufd $78, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm15, %xmm2, %xmm2 vpxor %xmm1, %xmm2, %xmm14 addq $16, %rdx addq $16, %r8 addq $-16, %rbx vpaddd .LCPI4_2(%rip), %xmm0, %xmm0 cmpq $15, %rbx ja .LBB4_21 vmovdqa %xmm0, 32(%rdi) vmovdqa %xmm14, (%rdi) testq %rbx, %rbx je .LBB4_25 .LBB4_23: movq %r11, 32(%rsp) movq %rax, %r12 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rax movq memcpy@GOTPCREL(%rip), %r13 movq %rdi, %r15 movq %rax, %rdi movq %rsi, %rbp movq %rdx, %rsi movq %rbx, %rdx movq %r8, %r14 vzeroupper callq *%r13 vmovdqa 32(%r15), %xmm0 vpshufb .LCPI4_0(%rip), %xmm0, %xmm1 vpaddd .LCPI4_2(%rip), %xmm0, %xmm0 vmovdqa %xmm0, 32(%r15) vpxor (%rbp), %xmm1, %xmm0 vaesenc 16(%rbp), %xmm0, %xmm0 vaesenc 32(%rbp), %xmm0, %xmm0 vaesenc 48(%rbp), %xmm0, %xmm0 vaesenc 64(%rbp), %xmm0, %xmm0 vaesenc 80(%rbp), %xmm0, %xmm0 vaesenc 96(%rbp), %xmm0, %xmm0 vaesenc 112(%rbp), %xmm0, %xmm0 vaesenc 128(%rbp), %xmm0, %xmm0 vaesenc 144(%rbp), %xmm0, %xmm0 vaesenclast 160(%rbp), %xmm0, %xmm1 vmovdqa %xmm1, 16(%rsp) vmovdqa (%rsp), %xmm0 vpxor %xmm0, %xmm1, %xmm0 vmovdqa %xmm0, 48(%rsp) vmovdqa %xmm0, (%rsp) movq %rsp, %rsi movq %r14, %rdi movq %rbx, %rdx callq *%r13 movq %r15, %rdi vmovaps 16(%rsp), %xmm0 vmovaps %xmm0, 48(%r15) vmovdqa 48(%rsp), %xmm0 vmovdqa %xmm0, 64(%r15) .LBB4_24: movq %rbx, 80(%rdi) movq %r12, %rax movq 32(%rsp), %r11 .LBB4_25: movq %r11, 104(%rdi) addq $440, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp vzeroupper retq .Lfunc_end4: .size haberdashery_aes128gcm_streaming_broadwell_encrypt_update, .Lfunc_end4-haberdashery_aes128gcm_streaming_broadwell_encrypt_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI5_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI5_1: .zero 8 .quad -4467570830351532032 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI5_2: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_streaming_broadwell_encrypt_finalize,"ax",@progbits .globl haberdashery_aes128gcm_streaming_broadwell_encrypt_finalize .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_broadwell_encrypt_finalize,@function haberdashery_aes128gcm_streaming_broadwell_encrypt_finalize: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $56, %rsp .cfi_def_cfa_offset 112 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq %rcx, %rbx movq %rsi, %r15 movq %rdi, %r12 movq 104(%rdi), %rbp testq %rbp, %rbp je .LBB5_1 movq %rdx, 8(%rsp) leaq 48(%r12), %r14 vmovaps 64(%r12), %xmm0 vmovaps %xmm0, 32(%rsp) movq 80(%r12), %r13 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 16(%rsp) leaq 16(%rsp), %rdi leaq 32(%rsp), %rsi movq %r13, %rdx callq *memcpy@GOTPCREL(%rip) vmovdqa (%r12), %xmm0 testq %r13, %r13 je .LBB5_4 vmovdqa 16(%rsp), %xmm1 vpshufb .LCPI5_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm2 vmovdqa 176(%r15), %xmm3 vpclmulqdq $0, %xmm2, %xmm3, %xmm0 vpclmulqdq $1, %xmm2, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm3, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm2, %xmm3, %xmm2 movq 8(%rsp), %rdx jmp .LBB5_6 .LBB5_1: cmpq $0, 80(%r12) vmovdqa (%r12), %xmm0 je .LBB5_8 vmovdqa 176(%r15), %xmm2 leaq 48(%r12), %r14 vmovdqa 64(%r12), %xmm1 vpshufb .LCPI5_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm3 vpclmulqdq $0, %xmm3, %xmm2, %xmm0 vpclmulqdq $1, %xmm3, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm3, %xmm2, %xmm2 .LBB5_6: vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI5_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm0, %xmm2, %xmm0 jmp .LBB5_7 .LBB5_4: movq 8(%rsp), %rdx .LBB5_7: vpxor %xmm1, %xmm1, %xmm1 vmovdqu %ymm1, (%r14) movq $0, 32(%r14) .LBB5_8: vmovdqa 176(%r15), %xmm1 vmovq 96(%r12), %xmm2 vmovq %rbp, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI5_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%r12) testq %rbx, %rbx je .LBB5_9 vmovdqa (%r15), %xmm1 vpxor 16(%r12), %xmm1, %xmm1 vaesenc 16(%r15), %xmm1, %xmm1 vaesenc 32(%r15), %xmm1, %xmm1 vaesenc 48(%r15), %xmm1, %xmm1 vaesenc 64(%r15), %xmm1, %xmm1 vaesenc 80(%r15), %xmm1, %xmm1 vaesenc 96(%r15), %xmm1, %xmm1 vaesenc 112(%r15), %xmm1, %xmm1 vaesenc 128(%r15), %xmm1, %xmm1 vaesenc 144(%r15), %xmm1, %xmm1 vaesenclast 160(%r15), %xmm1, %xmm1 vpshufb .LCPI5_0(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 cmpq $16, %rbx jae .LBB5_11 vmovdqa %xmm0, 16(%rsp) leaq 16(%rsp), %rsi movq %rdx, %rdi movq %rbx, %rdx vzeroupper callq *memcpy@GOTPCREL(%rip) jmp .LBB5_13 .LBB5_9: xorl %ebx, %ebx jmp .LBB5_13 .LBB5_11: vmovdqu %xmm0, (%rdx) movl $16, %ebx .LBB5_13: movq %rbx, %rax addq $56, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 vzeroupper retq .Lfunc_end5: .size haberdashery_aes128gcm_streaming_broadwell_encrypt_finalize, .Lfunc_end5-haberdashery_aes128gcm_streaming_broadwell_encrypt_finalize .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI6_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI6_1: .zero 8 .quad -4467570830351532032 .LCPI6_2: .long 1 .long 0 .long 0 .long 0 .LCPI6_3: .long 2 .long 0 .long 0 .long 0 .LCPI6_4: .long 3 .long 0 .long 0 .long 0 .LCPI6_5: .long 4 .long 0 .long 0 .long 0 .LCPI6_6: .long 5 .long 0 .long 0 .long 0 .LCPI6_7: .long 6 .long 0 .long 0 .long 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI6_8: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_streaming_broadwell_decrypt_update,"ax",@progbits .globl haberdashery_aes128gcm_streaming_broadwell_decrypt_update .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_broadwell_decrypt_update,@function haberdashery_aes128gcm_streaming_broadwell_decrypt_update: .cfi_startproc cmpq %r9, %rcx jne .LBB6_2 movq %rcx, %rax movabsq $-68719476704, %rcx leaq (%rax,%rcx), %r9 incq %rcx cmpq %rcx, %r9 jae .LBB6_3 .LBB6_2: xorl %eax, %eax retq .LBB6_3: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $392, %rsp .cfi_def_cfa_offset 448 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 104(%rdi), %rcx leaq (%rcx,%rax), %r13 movq %r13, %r9 shrq $5, %r9 cmpq $2147483646, %r9 jbe .LBB6_5 xorl %eax, %eax jmp .LBB6_24 .LBB6_5: testq %rcx, %rcx setne %r9b movq 80(%rdi), %rcx testq %rcx, %rcx sete %r10b orb %r9b, %r10b je .LBB6_9 testq %rcx, %rcx je .LBB6_10 movq %rdi, %rbp leaq (%rcx,%rax), %rbx cmpq $15, %rbx movq %rax, 56(%rsp) ja .LBB6_11 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r14 movq %r14, %rdi movq %rdx, %rsi movq %rax, %rdx movq %rax, %r15 movq %r8, %r12 callq *memcpy@GOTPCREL(%rip) vmovdqa (%rsp), %xmm0 vpxor 64(%rbp), %xmm0, %xmm0 vmovdqa %xmm0, 64(%rbp) vmovdqa %xmm0, (%rsp) movq %r12, %rdi movq %r14, %rsi movq %r15, %rdx callq *memcpy@GOTPCREL(%rip) movq %rbp, %rdi jmp .LBB6_22 .LBB6_9: vmovdqa 176(%rsi), %xmm0 vmovdqa 64(%rdi), %xmm1 vpshufb .LCPI6_0(%rip), %xmm1, %xmm1 vpxor (%rdi), %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI6_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rdi) vpxor %xmm0, %xmm0, %xmm0 vmovdqu %ymm0, 48(%rdi) movq $0, 80(%rdi) .LBB6_10: movq %rax, %rbx cmpq $96, %rbx jb .LBB6_13 .LBB6_15: vmovdqa (%rdi), %xmm3 vmovaps (%rsi), %xmm0 vmovaps %xmm0, 96(%rsp) vmovaps 16(%rsi), %xmm0 vmovaps %xmm0, 352(%rsp) vmovaps 32(%rsi), %xmm0 vmovaps %xmm0, 336(%rsp) vmovaps 48(%rsi), %xmm0 vmovaps %xmm0, 320(%rsp) vmovaps 64(%rsi), %xmm0 vmovaps %xmm0, 304(%rsp) vmovaps 80(%rsi), %xmm0 vmovaps %xmm0, 288(%rsp) vmovaps 96(%rsi), %xmm0 vmovaps %xmm0, 272(%rsp) vmovaps 112(%rsi), %xmm0 vmovaps %xmm0, 256(%rsp) vmovaps 128(%rsi), %xmm0 vmovaps %xmm0, 240(%rsp) vmovaps 144(%rsi), %xmm0 vmovaps %xmm0, 224(%rsp) vmovaps 160(%rsi), %xmm0 vmovaps %xmm0, 208(%rsp) vmovaps 176(%rsi), %xmm0 vmovaps %xmm0, 192(%rsp) vmovaps 192(%rsi), %xmm0 vmovaps %xmm0, 176(%rsp) vmovaps 208(%rsi), %xmm0 vmovaps %xmm0, 160(%rsp) vmovaps 224(%rsi), %xmm0 vmovaps %xmm0, 144(%rsp) vmovaps 240(%rsi), %xmm0 vmovaps %xmm0, 128(%rsp) vmovdqa 256(%rsi), %xmm0 vmovdqa %xmm0, 112(%rsp) .p2align 4, 0x90 .LBB6_16: vmovdqu (%rdx), %xmm7 vmovdqa %xmm7, 80(%rsp) vmovups 16(%rdx), %xmm0 vmovaps %xmm0, 32(%rsp) vmovups 32(%rdx), %xmm0 vmovaps %xmm0, 16(%rsp) vmovdqu 48(%rdx), %xmm10 vmovdqu 64(%rdx), %xmm8 vmovdqu 80(%rdx), %xmm9 vmovdqa %xmm9, 64(%rsp) vmovdqa 32(%rdi), %xmm0 vmovdqa .LCPI6_0(%rip), %xmm2 vpshufb %xmm2, %xmm0, %xmm1 vpaddd .LCPI6_2(%rip), %xmm0, %xmm4 vpshufb %xmm2, %xmm4, %xmm4 vpaddd .LCPI6_3(%rip), %xmm0, %xmm5 vpshufb %xmm2, %xmm5, %xmm5 vpaddd .LCPI6_4(%rip), %xmm0, %xmm11 vpshufb %xmm2, %xmm11, %xmm14 vpaddd .LCPI6_5(%rip), %xmm0, %xmm11 vpshufb %xmm2, %xmm11, %xmm15 vpaddd .LCPI6_6(%rip), %xmm0, %xmm11 vpshufb %xmm2, %xmm11, %xmm6 vpaddd .LCPI6_7(%rip), %xmm0, %xmm0 vmovdqa %xmm0, 32(%rdi) vpshufb %xmm2, %xmm7, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vmovdqa %xmm0, 368(%rsp) vpshufb %xmm2, %xmm9, %xmm7 vmovdqa 96(%rsp), %xmm0 vpxor %xmm1, %xmm0, %xmm11 vpxor %xmm4, %xmm0, %xmm12 vpxor %xmm5, %xmm0, %xmm13 vpxor %xmm0, %xmm14, %xmm14 vpxor %xmm0, %xmm15, %xmm15 vpxor %xmm6, %xmm0, %xmm1 vmovaps 352(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm12, %xmm12 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 #NO_APP vpxor %xmm4, %xmm4, %xmm4 vxorps %xmm0, %xmm0, %xmm0 vpxor %xmm5, %xmm5, %xmm5 vmovaps 336(%rsp), %xmm3 vmovaps 192(%rsp), %xmm9 #APP vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm9, %xmm7, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $0, %xmm9, %xmm7, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm7, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $1, %xmm9, %xmm7, %xmm6 vpxor %xmm6, %xmm0, %xmm0 #NO_APP vpshufb %xmm2, %xmm8, %xmm6 vmovaps 320(%rsp), %xmm3 vmovaps 176(%rsp), %xmm9 #APP vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm9, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $0, %xmm9, %xmm6, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $1, %xmm9, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 #NO_APP vpshufb %xmm2, %xmm10, %xmm6 vmovaps 304(%rsp), %xmm3 vmovaps 160(%rsp), %xmm9 #APP vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm9, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $0, %xmm9, %xmm6, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $1, %xmm9, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 #NO_APP vmovdqa 16(%rsp), %xmm3 vpshufb %xmm2, %xmm3, %xmm6 vmovaps 288(%rsp), %xmm3 vmovaps 144(%rsp), %xmm9 #APP vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm9, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $0, %xmm9, %xmm6, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $1, %xmm9, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 #NO_APP vmovdqa 32(%rsp), %xmm3 vpshufb %xmm2, %xmm3, %xmm6 vmovaps 272(%rsp), %xmm3 vmovdqa 128(%rsp), %xmm9 #APP vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm9, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $0, %xmm9, %xmm6, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $1, %xmm9, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 #NO_APP vmovaps 256(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm1, %xmm1 #NO_APP vmovaps 240(%rsp), %xmm3 vmovaps 112(%rsp), %xmm7 vmovdqa 368(%rsp), %xmm2 #APP vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm7, %xmm2, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $0, %xmm7, %xmm2, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $17, %xmm7, %xmm2, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $1, %xmm7, %xmm2, %xmm6 vpxor %xmm6, %xmm0, %xmm0 #NO_APP vpxor %xmm6, %xmm6, %xmm6 vpunpcklqdq %xmm0, %xmm6, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpunpckhqdq %xmm6, %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpbroadcastq .LCPI6_8(%rip), %xmm5 vpclmulqdq $16, %xmm5, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpshufd $78, %xmm3, %xmm4 vpxor %xmm4, %xmm0, %xmm0 vpclmulqdq $16, %xmm5, %xmm3, %xmm3 vpxor %xmm3, %xmm0, %xmm3 vmovaps 224(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm12, %xmm12 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 #NO_APP vmovaps 208(%rsp), %xmm0 #APP vaesenclast %xmm0, %xmm11, %xmm11 vaesenclast %xmm0, %xmm12, %xmm12 vaesenclast %xmm0, %xmm13, %xmm13 vaesenclast %xmm0, %xmm14, %xmm14 vaesenclast %xmm0, %xmm15, %xmm15 vaesenclast %xmm0, %xmm1, %xmm1 #NO_APP vpxor 80(%rsp), %xmm11, %xmm0 vpxor 32(%rsp), %xmm12, %xmm4 vpxor 16(%rsp), %xmm13, %xmm5 vpxor %xmm10, %xmm14, %xmm6 vpxor %xmm8, %xmm15, %xmm7 vpxor 64(%rsp), %xmm1, %xmm1 vmovdqu %xmm0, (%r8) vmovdqu %xmm4, 16(%r8) vmovdqu %xmm5, 32(%r8) vmovdqu %xmm6, 48(%r8) vmovdqu %xmm7, 64(%r8) vmovdqu %xmm1, 80(%r8) addq $96, %rdx addq $96, %r8 addq $-96, %rbx cmpq $95, %rbx ja .LBB6_16 vmovdqa %xmm3, (%rdi) cmpq $16, %rbx jae .LBB6_18 .LBB6_14: testq %rbx, %rbx jne .LBB6_21 jmp .LBB6_23 .LBB6_11: movl $16, %r14d subq %rcx, %r14 leaq (%rdx,%r14), %rdi movq %rdi, 16(%rsp) leaq (%r8,%r14), %rdi movq %rdi, 80(%rsp) movq %rax, %rbx subq %r14, %rbx vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r15 movq %r15, %rdi movq %rsi, 32(%rsp) movq %rdx, %rsi movq %r14, %rdx movq %r8, %r12 callq *memcpy@GOTPCREL(%rip) vmovaps (%rsp), %xmm0 vxorps 64(%rbp), %xmm0, %xmm0 vmovaps %xmm0, 64(%rsp) vmovaps %xmm0, 64(%rbp) vmovaps %xmm0, (%rsp) movq %r12, %rdi movq %r15, %rsi movq %r14, %rdx callq *memcpy@GOTPCREL(%rip) movq 32(%rsp), %rsi movq %rbp, %rdi movq 56(%rsp), %rax movq $0, 80(%rbp) vmovdqa 64(%rsp), %xmm0 vpxor 48(%rbp), %xmm0, %xmm0 vpshufb .LCPI6_0(%rip), %xmm0, %xmm0 vmovdqa 176(%rsi), %xmm1 vpxor (%rbp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI6_8(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rbp) movq 80(%rsp), %r8 movq 16(%rsp), %rdx cmpq $96, %rbx jae .LBB6_15 .LBB6_13: cmpq $16, %rbx jb .LBB6_14 .LBB6_18: vmovdqa (%rdi), %xmm14 vmovdqa 32(%rdi), %xmm0 vmovdqa 176(%rsi), %xmm1 vmovaps (%rsi), %xmm2 vmovaps %xmm2, 32(%rsp) vmovaps 16(%rsi), %xmm2 vmovaps %xmm2, 16(%rsp) vmovaps 32(%rsi), %xmm2 vmovaps %xmm2, 80(%rsp) vmovdqa 48(%rsi), %xmm2 vmovdqa %xmm2, 64(%rsp) vmovdqa 64(%rsi), %xmm6 vmovdqa 80(%rsi), %xmm7 vmovdqa 96(%rsi), %xmm8 vmovdqa 112(%rsi), %xmm9 vmovdqa 128(%rsi), %xmm10 vmovdqa 144(%rsi), %xmm11 vmovdqa 160(%rsi), %xmm12 vmovdqa .LCPI6_0(%rip), %xmm13 vpbroadcastq .LCPI6_8(%rip), %xmm15 .p2align 4, 0x90 .LBB6_19: vmovdqu (%rdx), %xmm2 vpshufb %xmm13, %xmm2, %xmm3 vpxor %xmm3, %xmm14, %xmm3 vpclmulqdq $0, %xmm3, %xmm1, %xmm14 vpclmulqdq $1, %xmm3, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm1, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm14, %xmm5 vpclmulqdq $17, %xmm3, %xmm1, %xmm3 vpsrldq $8, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm15, %xmm5, %xmm4 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpshufd $78, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm15, %xmm4, %xmm4 vpxor %xmm3, %xmm4, %xmm14 vpshufb %xmm13, %xmm0, %xmm3 vpxor 32(%rsp), %xmm3, %xmm3 vaesenc 16(%rsp), %xmm3, %xmm3 vaesenc 80(%rsp), %xmm3, %xmm3 vaesenc 64(%rsp), %xmm3, %xmm3 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm11, %xmm3, %xmm3 vaesenclast %xmm12, %xmm3, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vmovdqu %xmm2, (%r8) addq $16, %r8 addq $-16, %rbx addq $16, %rdx vpaddd .LCPI6_2(%rip), %xmm0, %xmm0 cmpq $15, %rbx ja .LBB6_19 vmovdqa %xmm0, 32(%rdi) vmovdqa %xmm14, (%rdi) testq %rbx, %rbx je .LBB6_23 .LBB6_21: movq %rax, 56(%rsp) vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rax movq memcpy@GOTPCREL(%rip), %r12 movq %rdi, %r15 movq %rax, %rdi movq %r13, %rbp movq %rsi, %r13 movq %rdx, %rsi movq %rbx, %rdx movq %r8, %r14 vzeroupper callq *%r12 vmovdqa 32(%r15), %xmm0 vpshufb .LCPI6_0(%rip), %xmm0, %xmm1 vpaddd .LCPI6_2(%rip), %xmm0, %xmm0 vmovdqa %xmm0, 32(%r15) vpxor (%r13), %xmm1, %xmm0 vaesenc 16(%r13), %xmm0, %xmm0 vaesenc 32(%r13), %xmm0, %xmm0 vaesenc 48(%r13), %xmm0, %xmm0 vaesenc 64(%r13), %xmm0, %xmm0 vaesenc 80(%r13), %xmm0, %xmm0 vaesenc 96(%r13), %xmm0, %xmm0 vaesenc 112(%r13), %xmm0, %xmm0 vaesenc 128(%r13), %xmm0, %xmm0 vaesenc 144(%r13), %xmm0, %xmm0 vaesenclast 160(%r13), %xmm0, %xmm1 vmovdqa %xmm1, 32(%rsp) movq %rbp, %r13 vmovdqa (%rsp), %xmm0 vpxor %xmm0, %xmm1, %xmm0 vmovdqa %xmm0, 16(%rsp) vmovdqa %xmm0, (%rsp) movq %rsp, %rsi movq %r14, %rdi movq %rbx, %rdx callq *%r12 movq %r15, %rdi vmovaps 32(%rsp), %xmm0 vmovaps %xmm0, 48(%r15) vmovdqa 16(%rsp), %xmm0 vmovdqa %xmm0, 64(%r15) .LBB6_22: movq %rbx, 80(%rdi) movq 56(%rsp), %rax .LBB6_23: movq %r13, 104(%rdi) .LBB6_24: addq $392, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp vzeroupper retq .Lfunc_end6: .size haberdashery_aes128gcm_streaming_broadwell_decrypt_update, .Lfunc_end6-haberdashery_aes128gcm_streaming_broadwell_decrypt_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI7_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI7_1: .zero 8 .quad -4467570830351532032 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI7_2: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_streaming_broadwell_decrypt_finalize,"ax",@progbits .globl haberdashery_aes128gcm_streaming_broadwell_decrypt_finalize .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_broadwell_decrypt_finalize,@function haberdashery_aes128gcm_streaming_broadwell_decrypt_finalize: .cfi_startproc xorl %eax, %eax cmpq $16, %rcx jne .LBB7_10 pushq %r15 .cfi_def_cfa_offset 16 pushq %r14 .cfi_def_cfa_offset 24 pushq %r13 .cfi_def_cfa_offset 32 pushq %r12 .cfi_def_cfa_offset 40 pushq %rbx .cfi_def_cfa_offset 48 subq $48, %rsp .cfi_def_cfa_offset 96 .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r13, -32 .cfi_offset %r14, -24 .cfi_offset %r15, -16 vmovdqu (%rdx), %xmm5 movq 104(%rdi), %r14 testq %r14, %r14 je .LBB7_2 vmovdqa %xmm5, (%rsp) movq %rsi, %r12 leaq 48(%rdi), %r15 vmovaps 48(%rdi), %xmm0 vxorps 64(%rdi), %xmm0, %xmm0 vmovaps %xmm0, 32(%rsp) movq 80(%rdi), %rbx vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 16(%rsp) leaq 16(%rsp), %rax leaq 32(%rsp), %rsi movq %rdi, %r13 movq %rax, %rdi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) movq %r13, %rdi vmovdqa (%r13), %xmm0 testq %rbx, %rbx je .LBB7_5 vmovdqa 16(%rsp), %xmm1 vpshufb .LCPI7_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm2 movq %r12, %rsi vmovdqa 176(%r12), %xmm3 vpclmulqdq $0, %xmm2, %xmm3, %xmm0 vpclmulqdq $1, %xmm2, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm3, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm2, %xmm3, %xmm2 vmovdqa (%rsp), %xmm5 jmp .LBB7_7 .LBB7_2: cmpq $0, 80(%rdi) vmovdqa (%rdi), %xmm0 je .LBB7_9 vmovdqa 176(%rsi), %xmm2 leaq 48(%rdi), %r15 vmovdqa 64(%rdi), %xmm1 vpshufb .LCPI7_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm3 vpclmulqdq $0, %xmm3, %xmm2, %xmm0 vpclmulqdq $1, %xmm3, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm3, %xmm2, %xmm2 .LBB7_7: vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI7_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm0 jmp .LBB7_8 .LBB7_5: movq %r12, %rsi vmovdqa (%rsp), %xmm5 .LBB7_8: vpxor %xmm1, %xmm1, %xmm1 vmovdqu %ymm1, (%r15) movq $0, 32(%r15) .LBB7_9: vmovdqa 176(%rsi), %xmm1 vmovq 96(%rdi), %xmm2 vmovq %r14, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI7_2(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rdi) vmovdqa (%rsi), %xmm1 vpxor 16(%rdi), %xmm1, %xmm1 vaesenc 16(%rsi), %xmm1, %xmm1 vaesenc 32(%rsi), %xmm1, %xmm1 vaesenc 48(%rsi), %xmm1, %xmm1 vaesenc 64(%rsi), %xmm1, %xmm1 vaesenc 80(%rsi), %xmm1, %xmm1 vaesenc 96(%rsi), %xmm1, %xmm1 vaesenc 112(%rsi), %xmm1, %xmm1 vaesenc 128(%rsi), %xmm1, %xmm1 vaesenc 144(%rsi), %xmm1, %xmm1 vaesenclast 160(%rsi), %xmm1, %xmm1 vpshufb .LCPI7_0(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpxor %xmm1, %xmm0, %xmm0 xorl %eax, %eax vptest %xmm0, %xmm0 sete %al addq $48, %rsp .cfi_def_cfa_offset 48 popq %rbx .cfi_def_cfa_offset 40 popq %r12 .cfi_def_cfa_offset 32 popq %r13 .cfi_def_cfa_offset 24 popq %r14 .cfi_def_cfa_offset 16 popq %r15 .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .LBB7_10: vzeroupper retq .Lfunc_end7: .size haberdashery_aes128gcm_streaming_broadwell_decrypt_finalize, .Lfunc_end7-haberdashery_aes128gcm_streaming_broadwell_decrypt_finalize .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
76,392
asm/aes256gcmsiv_skylake.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI0_1: .quad 4294967297 .quad 4294967297 .LCPI0_2: .quad 8589934594 .quad 8589934594 .LCPI0_3: .quad 17179869188 .quad 17179869188 .LCPI0_4: .quad 34359738376 .quad 34359738376 .LCPI0_5: .quad 68719476752 .quad 68719476752 .LCPI0_6: .quad 137438953504 .quad 137438953504 .LCPI0_7: .quad 274877907008 .quad 274877907008 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI0_8: .byte 13 .byte 14 .byte 15 .byte 12 .section .text.haberdashery_aes256gcmsiv_skylake_init,"ax",@progbits .globl haberdashery_aes256gcmsiv_skylake_init .p2align 4, 0x90 .type haberdashery_aes256gcmsiv_skylake_init,@function haberdashery_aes256gcmsiv_skylake_init: .cfi_startproc cmpq $32, %rdx jne .LBB0_2 vmovdqu (%rsi), %xmm0 vmovdqu 16(%rsi), %xmm1 vpslldq $4, %xmm0, %xmm2 vpslldq $8, %xmm0, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpslldq $12, %xmm0, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpbroadcastd .LCPI0_8(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm4 vaesenclast .LCPI0_1(%rip), %xmm4, %xmm4 vpxor %xmm0, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpslldq $4, %xmm1, %xmm4 vpslldq $8, %xmm1, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm1, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpshufd $255, %xmm2, %xmm5 vpxor %xmm6, %xmm6, %xmm6 vaesenclast %xmm6, %xmm5, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpslldq $4, %xmm2, %xmm5 vpslldq $8, %xmm2, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpslldq $12, %xmm2, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpshufb %xmm3, %xmm4, %xmm7 vaesenclast .LCPI0_2(%rip), %xmm7, %xmm7 vpxor %xmm2, %xmm5, %xmm5 vpxor %xmm5, %xmm7, %xmm5 vpslldq $4, %xmm4, %xmm7 vpslldq $8, %xmm4, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpslldq $12, %xmm4, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpshufd $255, %xmm5, %xmm8 vaesenclast %xmm6, %xmm8, %xmm8 vpxor %xmm4, %xmm7, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpslldq $4, %xmm5, %xmm8 vpslldq $8, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpslldq $12, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpshufb %xmm3, %xmm7, %xmm9 vaesenclast .LCPI0_3(%rip), %xmm9, %xmm9 vpxor %xmm5, %xmm8, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpslldq $4, %xmm7, %xmm9 vpslldq $8, %xmm7, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpslldq $12, %xmm7, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpshufd $255, %xmm8, %xmm10 vaesenclast %xmm6, %xmm10, %xmm10 vpxor %xmm7, %xmm9, %xmm9 vpxor %xmm9, %xmm10, %xmm9 vpslldq $4, %xmm8, %xmm10 vpslldq $8, %xmm8, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpslldq $12, %xmm8, %xmm11 vpshufb %xmm3, %xmm9, %xmm12 vaesenclast .LCPI0_4(%rip), %xmm12, %xmm12 vpxor %xmm11, %xmm10, %xmm10 vpxor %xmm8, %xmm10, %xmm10 vpxor %xmm10, %xmm12, %xmm10 vpslldq $4, %xmm9, %xmm11 vpslldq $8, %xmm9, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpslldq $12, %xmm9, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpshufd $255, %xmm10, %xmm12 vaesenclast %xmm6, %xmm12, %xmm12 vpxor %xmm9, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpslldq $4, %xmm10, %xmm12 vpslldq $8, %xmm10, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpslldq $12, %xmm10, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpshufb %xmm3, %xmm11, %xmm13 vaesenclast .LCPI0_5(%rip), %xmm13, %xmm13 vpxor %xmm10, %xmm12, %xmm12 vpxor %xmm12, %xmm13, %xmm12 vpslldq $4, %xmm11, %xmm13 vpslldq $8, %xmm11, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpslldq $12, %xmm11, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpshufd $255, %xmm12, %xmm14 vaesenclast %xmm6, %xmm14, %xmm14 vpxor %xmm11, %xmm13, %xmm13 vpxor %xmm13, %xmm14, %xmm13 vpslldq $4, %xmm12, %xmm14 vpslldq $8, %xmm12, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpslldq $12, %xmm12, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpshufb %xmm3, %xmm13, %xmm15 vaesenclast .LCPI0_6(%rip), %xmm15, %xmm15 vpxor %xmm12, %xmm14, %xmm14 vpxor %xmm14, %xmm15, %xmm14 vpslldq $4, %xmm13, %xmm15 vpslldq $8, %xmm13, %xmm3 vpxor %xmm3, %xmm15, %xmm3 vpslldq $12, %xmm13, %xmm15 vpxor %xmm3, %xmm15, %xmm3 vpshufd $255, %xmm14, %xmm15 vaesenclast %xmm6, %xmm15, %xmm6 vpxor %xmm3, %xmm13, %xmm3 vpxor %xmm3, %xmm6, %xmm3 vpslldq $4, %xmm14, %xmm6 vpslldq $8, %xmm14, %xmm15 vpxor %xmm6, %xmm15, %xmm6 vpslldq $12, %xmm14, %xmm15 vpxor %xmm6, %xmm15, %xmm6 vpshufb .LCPI0_0(%rip), %xmm3, %xmm15 vaesenclast .LCPI0_7(%rip), %xmm15, %xmm15 vpxor %xmm6, %xmm14, %xmm6 vpxor %xmm6, %xmm15, %xmm6 vmovdqa %xmm0, (%rdi) vmovdqa %xmm1, 16(%rdi) vmovdqa %xmm2, 32(%rdi) vmovdqa %xmm4, 48(%rdi) vmovdqa %xmm5, 64(%rdi) vmovdqa %xmm7, 80(%rdi) vmovdqa %xmm8, 96(%rdi) vmovdqa %xmm9, 112(%rdi) vmovdqa %xmm10, 128(%rdi) vmovdqa %xmm11, 144(%rdi) vmovdqa %xmm12, 160(%rdi) vmovdqa %xmm13, 176(%rdi) vmovdqa %xmm14, 192(%rdi) vmovdqa %xmm3, 208(%rdi) vmovdqa %xmm6, 224(%rdi) .LBB0_2: xorl %eax, %eax cmpq $32, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes256gcmsiv_skylake_init, .Lfunc_end0-haberdashery_aes256gcmsiv_skylake_init .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI1_0: .long 1 .long 0 .long 0 .long 0 .LCPI1_1: .long 2 .long 0 .long 0 .long 0 .LCPI1_2: .long 3 .long 0 .long 0 .long 0 .LCPI1_3: .quad 4 .quad 0 .LCPI1_4: .long 5 .long 0 .long 0 .long 0 .LCPI1_5: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI1_6: .quad 4294967297 .quad 4294967297 .LCPI1_7: .quad 8589934594 .quad 8589934594 .LCPI1_8: .quad 17179869188 .quad 17179869188 .LCPI1_9: .quad 34359738376 .quad 34359738376 .LCPI1_10: .quad 68719476752 .quad 68719476752 .LCPI1_11: .quad 137438953504 .quad 137438953504 .LCPI1_12: .quad 274877907008 .quad 274877907008 .LCPI1_13: .zero 8 .quad -4467570830351532032 .LCPI1_14: .quad -1 .quad 9223372036854775807 .LCPI1_15: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 128 .LCPI1_16: .long 6 .long 0 .long 0 .long 0 .LCPI1_17: .long 7 .long 0 .long 0 .long 0 .LCPI1_18: .long 8 .long 0 .long 0 .long 0 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI1_19: .byte 13 .byte 14 .byte 15 .byte 12 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI1_20: .quad -4467570830351532032 .section .text.haberdashery_aes256gcmsiv_skylake_encrypt,"ax",@progbits .globl haberdashery_aes256gcmsiv_skylake_encrypt .p2align 4, 0x90 .type haberdashery_aes256gcmsiv_skylake_encrypt,@function haberdashery_aes256gcmsiv_skylake_encrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %rbx .cfi_def_cfa_offset 40 subq $456, %rsp .cfi_def_cfa_offset 496 .cfi_offset %rbx, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 496(%rsp), %r15 xorl %eax, %eax cmpq 512(%rsp), %r15 jne .LBB1_45 movabsq $68719476737, %rax cmpq %rax, %r8 setb %r10b cmpq %rax, %r15 setb %al andb %r10b, %al cmpq $16, 528(%rsp) sete %r10b cmpq $12, %rdx sete %bpl andb %r10b, %bpl andb %al, %bpl cmpb $1, %bpl jne .LBB1_44 vmovsd 4(%rsi), %xmm0 vmovss (%rsi), %xmm1 vshufps $65, %xmm0, %xmm1, %xmm0 vxorps (%rdi), %xmm0, %xmm0 vxorps .LCPI1_0(%rip), %xmm0, %xmm3 vxorps .LCPI1_1(%rip), %xmm0, %xmm2 vxorps .LCPI1_2(%rip), %xmm0, %xmm4 vxorps .LCPI1_3(%rip), %xmm0, %xmm1 vxorps .LCPI1_4(%rip), %xmm0, %xmm5 vmovaps 16(%rdi), %xmm6 vmovaps 32(%rdi), %xmm7 vmovaps 48(%rdi), %xmm8 vmovdqa 64(%rdi), %xmm9 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm5, %xmm5 #NO_APP vmovaps 80(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 96(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 112(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 128(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 144(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 160(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 176(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 192(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 208(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 224(%rdi), %xmm6 #APP vaesenclast %xmm6, %xmm0, %xmm0 vaesenclast %xmm6, %xmm3, %xmm3 vaesenclast %xmm6, %xmm2, %xmm2 vaesenclast %xmm6, %xmm4, %xmm4 vaesenclast %xmm6, %xmm1, %xmm1 vaesenclast %xmm6, %xmm5, %xmm5 #NO_APP vmovlhps %xmm3, %xmm0, %xmm7 vpunpcklqdq %xmm4, %xmm2, %xmm6 vpunpcklqdq %xmm5, %xmm1, %xmm5 vpslldq $4, %xmm6, %xmm3 vpxor %xmm9, %xmm9, %xmm9 vpunpcklqdq %xmm2, %xmm9, %xmm4 vinsertps $55, %xmm2, %xmm0, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpbroadcastd .LCPI1_19(%rip), %xmm0 vpshufb %xmm0, %xmm5, %xmm3 vaesenclast .LCPI1_6(%rip), %xmm3, %xmm3 vmovdqa %xmm6, 336(%rsp) vpxor %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm12 vpslldq $4, %xmm5, %xmm2 vpunpcklqdq %xmm1, %xmm9, %xmm3 vinsertps $55, %xmm1, %xmm0, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpshufd $255, %xmm12, %xmm2 vaesenclast %xmm9, %xmm2, %xmm2 vmovdqa %xmm5, 240(%rsp) vpxor %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm3 vpslldq $4, %xmm12, %xmm1 vpslldq $8, %xmm12, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm12, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufb %xmm0, %xmm3, %xmm2 vaesenclast .LCPI1_7(%rip), %xmm2, %xmm2 vpxor %xmm1, %xmm12, %xmm1 vpxor %xmm1, %xmm2, %xmm4 vpslldq $4, %xmm3, %xmm1 vpslldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufd $255, %xmm4, %xmm2 vaesenclast %xmm9, %xmm2, %xmm2 vmovdqa %xmm3, 304(%rsp) vpxor %xmm3, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm3 vpslldq $4, %xmm4, %xmm1 vpslldq $8, %xmm4, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm4, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufb %xmm0, %xmm3, %xmm2 vaesenclast .LCPI1_8(%rip), %xmm2, %xmm2 vmovdqa %xmm4, 288(%rsp) vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm4 vpslldq $4, %xmm3, %xmm1 vpslldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufd $255, %xmm4, %xmm2 vaesenclast %xmm9, %xmm2, %xmm2 vmovdqa %xmm3, 224(%rsp) vpxor %xmm3, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm3 vpslldq $4, %xmm4, %xmm1 vpslldq $8, %xmm4, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm4, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufb %xmm0, %xmm3, %xmm2 vaesenclast .LCPI1_9(%rip), %xmm2, %xmm2 vmovdqa %xmm4, 208(%rsp) vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm10 vpslldq $4, %xmm3, %xmm1 vpslldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufd $255, %xmm10, %xmm2 vaesenclast %xmm9, %xmm2, %xmm2 vmovdqa %xmm3, 192(%rsp) vpxor %xmm3, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm4 vpslldq $4, %xmm10, %xmm1 vpslldq $8, %xmm10, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm10, %xmm2 vpshufb %xmm0, %xmm4, %xmm3 vaesenclast .LCPI1_10(%rip), %xmm3, %xmm3 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm10, %xmm1 vpxor %xmm1, %xmm3, %xmm3 vpslldq $4, %xmm4, %xmm1 vpslldq $8, %xmm4, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm4, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufd $255, %xmm3, %xmm2 vaesenclast %xmm9, %xmm2, %xmm2 vmovdqa %xmm4, 160(%rsp) vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm6 vpslldq $4, %xmm3, %xmm1 vpslldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufb %xmm0, %xmm6, %xmm2 vaesenclast .LCPI1_11(%rip), %xmm2, %xmm2 vmovdqa %xmm3, 144(%rsp) vpxor %xmm3, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm8 vpslldq $4, %xmm6, %xmm1 vpslldq $8, %xmm6, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm6, %xmm2 vpxor %xmm2, %xmm1, %xmm0 vmovdqa %xmm0, 32(%rsp) vpclmulqdq $0, %xmm7, %xmm7, %xmm2 vpbroadcastq .LCPI1_20(%rip), %xmm0 vpclmulqdq $16, %xmm0, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm7, %xmm7, %xmm3 vpshufd $78, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm0, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm1 vpclmulqdq $0, %xmm1, %xmm1, %xmm2 vpclmulqdq $16, %xmm0, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm1, %xmm1, %xmm3 vpshufd $78, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm0, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm5 vpclmulqdq $0, %xmm5, %xmm5, %xmm2 vpclmulqdq $16, %xmm0, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm5, %xmm5, %xmm3 vpshufd $78, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm0, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vmovdqa %xmm2, 48(%rsp) vpclmulqdq $16, %xmm7, %xmm1, %xmm2 vpclmulqdq $1, %xmm7, %xmm1, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $0, %xmm7, %xmm1, %xmm3 vpslldq $8, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm0, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpsrldq $8, %xmm2, %xmm2 vmovdqa %xmm1, 80(%rsp) vpclmulqdq $17, %xmm7, %xmm1, %xmm4 vpxor %xmm2, %xmm4, %xmm2 vpshufd $78, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $16, %xmm0, %xmm3, %xmm3 vpxor %xmm3, %xmm2, %xmm11 vpclmulqdq $0, %xmm11, %xmm11, %xmm2 vpclmulqdq $16, %xmm0, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm11, %xmm11, %xmm3 vpshufd $78, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm0, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm13 vpclmulqdq $16, %xmm7, %xmm13, %xmm2 vpclmulqdq $1, %xmm7, %xmm13, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $0, %xmm7, %xmm13, %xmm3 vpslldq $8, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm0, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $17, %xmm7, %xmm13, %xmm4 vpxor %xmm2, %xmm4, %xmm2 vpshufd $78, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $16, %xmm0, %xmm3, %xmm3 vpxor %xmm3, %xmm2, %xmm14 vpclmulqdq $16, %xmm7, %xmm5, %xmm2 vpclmulqdq $1, %xmm7, %xmm5, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $0, %xmm7, %xmm5, %xmm3 vpslldq $8, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm0, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpsrldq $8, %xmm2, %xmm2 vmovaps %xmm7, 112(%rsp) vmovdqa %xmm5, 64(%rsp) vpclmulqdq $17, %xmm7, %xmm5, %xmm4 vpxor %xmm2, %xmm4, %xmm2 vpshufd $78, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $16, %xmm0, %xmm3, %xmm3 vpxor %xmm3, %xmm2, %xmm15 vpshufd $255, %xmm8, %xmm0 cmpq $128, %r8 vmovdqa %xmm8, 96(%rsp) vmovdqa %xmm12, 320(%rsp) vmovdqa %xmm10, 176(%rsp) vmovdqa %xmm6, 128(%rsp) jb .LBB1_6 vmovdqa %xmm0, 16(%rsp) vpxor %xmm5, %xmm5, %xmm5 movq %r8, %rax vmovdqa 112(%rsp), %xmm1 vmovdqa 80(%rsp), %xmm2 vmovdqa %xmm11, %xmm12 vmovdqa 64(%rsp), %xmm11 .p2align 4, 0x90 .LBB1_4: vmovdqu 64(%rcx), %xmm3 vmovdqu 80(%rcx), %xmm4 vmovdqa %xmm5, %xmm0 vmovdqu 96(%rcx), %xmm5 vmovdqu 112(%rcx), %xmm6 vpclmulqdq $0, %xmm6, %xmm1, %xmm7 vpclmulqdq $1, %xmm6, %xmm1, %xmm8 vpclmulqdq $16, %xmm6, %xmm1, %xmm9 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $17, %xmm6, %xmm1, %xmm6 vpclmulqdq $0, %xmm5, %xmm2, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $1, %xmm5, %xmm2, %xmm9 vpclmulqdq $16, %xmm5, %xmm2, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpclmulqdq $17, %xmm5, %xmm2, %xmm5 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $0, %xmm4, %xmm12, %xmm6 vpclmulqdq $1, %xmm4, %xmm12, %xmm9 vpclmulqdq $16, %xmm4, %xmm12, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $0, %xmm3, %xmm11, %xmm10 vpxor %xmm6, %xmm10, %xmm6 vmovdqu 32(%rcx), %xmm10 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $1, %xmm3, %xmm11, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vmovdqu 48(%rcx), %xmm9 vpclmulqdq $17, %xmm4, %xmm12, %xmm4 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $16, %xmm3, %xmm11, %xmm8 vpclmulqdq $17, %xmm3, %xmm11, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $0, %xmm9, %xmm15, %xmm4 vpclmulqdq $1, %xmm9, %xmm15, %xmm5 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $16, %xmm9, %xmm15, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $0, %xmm10, %xmm13, %xmm8 vpxor %xmm4, %xmm8, %xmm4 vpclmulqdq $1, %xmm10, %xmm13, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vmovdqu 16(%rcx), %xmm8 vpclmulqdq $17, %xmm9, %xmm15, %xmm9 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $17, %xmm10, %xmm13, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm8, %xmm14, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $16, %xmm10, %xmm13, %xmm9 vmovdqa 48(%rsp), %xmm10 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $1, %xmm8, %xmm14, %xmm6 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $16, %xmm8, %xmm14, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $17, %xmm8, %xmm14, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor (%rcx), %xmm0, %xmm8 vpxor %xmm7, %xmm3, %xmm3 vpclmulqdq $0, %xmm8, %xmm10, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $1, %xmm8, %xmm10, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $16, %xmm8, %xmm10, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $17, %xmm8, %xmm10, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpbroadcastq .LCPI1_20(%rip), %xmm0 vpclmulqdq $16, %xmm0, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpshufd $78, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm0, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm5 addq $128, %rcx addq $-128, %rax cmpq $127, %rax ja .LBB1_4 vmovdqa 96(%rsp), %xmm8 vmovdqa %xmm12, %xmm11 vmovdqa 128(%rsp), %xmm6 vpxor %xmm9, %xmm9, %xmm9 vmovdqa 16(%rsp), %xmm0 jmp .LBB1_7 .LBB1_6: vpxor %xmm5, %xmm5, %xmm5 movq %r8, %rax .LBB1_7: vmovdqa %xmm14, 368(%rsp) vmovdqa %xmm13, 384(%rsp) vaesenclast %xmm9, %xmm0, %xmm0 vpxor 32(%rsp), %xmm6, %xmm2 vpslldq $4, %xmm8, %xmm1 vpslldq $8, %xmm8, %xmm3 cmpq $16, %rax vmovdqa %xmm15, 352(%rsp) jb .LBB1_13 leaq -16(%rax), %rdx testb $16, %dl jne .LBB1_10 vpxor (%rcx), %xmm5, %xmm4 addq $16, %rcx vmovdqa 112(%rsp), %xmm9 vpclmulqdq $0, %xmm4, %xmm9, %xmm5 vpclmulqdq $1, %xmm4, %xmm9, %xmm6 vpclmulqdq $16, %xmm4, %xmm9, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm4, %xmm9, %xmm4 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpbroadcastq .LCPI1_20(%rip), %xmm7 vpclmulqdq $16, %xmm7, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $16, %xmm7, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm5 movq %rdx, %rax .LBB1_10: cmpq $16, %rdx jb .LBB1_14 vmovdqa 112(%rsp), %xmm9 vpbroadcastq .LCPI1_20(%rip), %xmm10 .p2align 4, 0x90 .LBB1_12: vpxor (%rcx), %xmm5, %xmm4 vpclmulqdq $0, %xmm4, %xmm9, %xmm5 vpclmulqdq $1, %xmm4, %xmm9, %xmm6 vpclmulqdq $16, %xmm4, %xmm9, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm4, %xmm9, %xmm4 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $16, %xmm10, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $16, %xmm10, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 addq $-32, %rax vpxor 16(%rcx), %xmm4, %xmm4 addq $32, %rcx vpclmulqdq $0, %xmm4, %xmm9, %xmm5 vpclmulqdq $1, %xmm4, %xmm9, %xmm6 vpclmulqdq $16, %xmm4, %xmm9, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm4, %xmm9, %xmm4 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $16, %xmm10, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $16, %xmm10, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm5 cmpq $15, %rax ja .LBB1_12 .LBB1_13: movq %rax, %rdx .LBB1_14: vmovdqa %xmm11, 400(%rsp) vpxor %xmm2, %xmm0, %xmm4 vpxor %xmm3, %xmm1, %xmm1 vpslldq $12, %xmm8, %xmm2 vmovss 8(%rsi), %xmm0 vmovaps %xmm0, 432(%rsp) vmovq (%rsi), %xmm0 vmovdqa %xmm0, 416(%rsp) testq %rdx, %rdx vmovdqa %xmm4, 16(%rsp) je .LBB1_16 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rdi movq %rcx, %rsi movq %r9, %rbx movq %r8, %r14 vmovdqa %xmm5, 32(%rsp) vmovdqa %xmm1, 272(%rsp) vmovdqa %xmm2, 256(%rsp) callq *memcpy@GOTPCREL(%rip) vmovdqa 16(%rsp), %xmm4 movq %r14, %r8 movq %rbx, %r9 vmovdqa 32(%rsp), %xmm0 vpxor (%rsp), %xmm0, %xmm0 vmovdqa 112(%rsp), %xmm12 vpclmulqdq $0, %xmm0, %xmm12, %xmm1 vpclmulqdq $1, %xmm0, %xmm12, %xmm2 vpclmulqdq $16, %xmm0, %xmm12, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm12, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_20(%rip), %xmm7 vpclmulqdq $16, %xmm7, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm7, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vmovdqa 272(%rsp), %xmm1 vpxor %xmm0, %xmm2, %xmm5 vmovdqa 256(%rsp), %xmm2 jmp .LBB1_17 .LBB1_16: vmovdqa 112(%rsp), %xmm12 vpbroadcastq .LCPI1_20(%rip), %xmm7 .LBB1_17: vmovdqa 80(%rsp), %xmm14 vmovdqa 64(%rsp), %xmm15 vpxor %xmm2, %xmm1, %xmm0 vpshufb .LCPI1_5(%rip), %xmm4, %xmm2 vmovq %r15, %xmm1 vmovq %r8, %xmm3 cmpq $128, %r15 jb .LBB1_21 vmovdqa %xmm3, 256(%rsp) vmovdqa %xmm2, 272(%rsp) vmovdqa %xmm1, 64(%rsp) vmovdqa %xmm0, 80(%rsp) movq %r9, %rsi movq %r15, %rax vmovdqa 48(%rsp), %xmm0 vmovdqa 400(%rsp), %xmm1 vmovdqa 384(%rsp), %xmm2 vmovdqa 368(%rsp), %xmm3 vmovdqa 352(%rsp), %xmm13 .p2align 4, 0x90 .LBB1_19: vmovdqa %xmm5, 32(%rsp) vmovdqu 64(%rsi), %xmm4 vmovdqu 80(%rsi), %xmm5 vmovdqu 96(%rsi), %xmm6 vmovdqu 112(%rsi), %xmm7 vpclmulqdq $0, %xmm7, %xmm12, %xmm8 vpclmulqdq $1, %xmm7, %xmm12, %xmm9 vpclmulqdq $16, %xmm7, %xmm12, %xmm10 vpxor %xmm9, %xmm10, %xmm9 vpclmulqdq $17, %xmm7, %xmm12, %xmm7 vpclmulqdq $0, %xmm6, %xmm14, %xmm10 vpxor %xmm8, %xmm10, %xmm8 vpclmulqdq $1, %xmm6, %xmm14, %xmm10 vpclmulqdq $16, %xmm6, %xmm14, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $17, %xmm6, %xmm14, %xmm6 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm1, %xmm7 vpclmulqdq $1, %xmm5, %xmm1, %xmm10 vpclmulqdq $16, %xmm5, %xmm1, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpclmulqdq $0, %xmm4, %xmm15, %xmm11 vpxor %xmm7, %xmm11, %xmm7 vmovdqu 32(%rsi), %xmm11 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $1, %xmm4, %xmm15, %xmm8 vpxor %xmm8, %xmm10, %xmm8 vmovdqu 48(%rsi), %xmm10 vpclmulqdq $17, %xmm5, %xmm1, %xmm5 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $16, %xmm4, %xmm15, %xmm9 vpclmulqdq $17, %xmm4, %xmm15, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $0, %xmm10, %xmm13, %xmm5 vpclmulqdq $1, %xmm10, %xmm13, %xmm6 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $16, %xmm10, %xmm13, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $0, %xmm11, %xmm2, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $1, %xmm11, %xmm2, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vmovdqu 16(%rsi), %xmm9 vpclmulqdq $17, %xmm10, %xmm13, %xmm10 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm11, %xmm2, %xmm8 vpxor %xmm8, %xmm10, %xmm8 vpclmulqdq $0, %xmm9, %xmm3, %xmm10 vpxor %xmm5, %xmm10, %xmm5 vpclmulqdq $16, %xmm11, %xmm2, %xmm10 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $1, %xmm9, %xmm3, %xmm7 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $16, %xmm9, %xmm3, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $17, %xmm9, %xmm3, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vmovdqa 32(%rsp), %xmm9 vpxor (%rsi), %xmm9, %xmm9 vpxor %xmm4, %xmm8, %xmm4 vpclmulqdq $0, %xmm9, %xmm0, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $1, %xmm9, %xmm0, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $16, %xmm9, %xmm0, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $17, %xmm9, %xmm0, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpbroadcastq .LCPI1_20(%rip), %xmm7 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $16, %xmm7, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpshufd $78, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $16, %xmm7, %xmm5, %xmm5 vpxor %xmm5, %xmm4, %xmm5 addq $128, %rsi addq $-128, %rax cmpq $127, %rax ja .LBB1_19 vmovdqa 80(%rsp), %xmm0 vmovdqa 64(%rsp), %xmm1 vmovdqa 272(%rsp), %xmm2 vmovdqa 256(%rsp), %xmm3 jmp .LBB1_22 .LBB1_21: movq %r15, %rax movq %r9, %rsi .LBB1_22: vaesenclast .LCPI1_12(%rip), %xmm2, %xmm2 vmovdqa 96(%rsp), %xmm8 vpxor %xmm0, %xmm8, %xmm4 vpunpcklqdq %xmm1, %xmm3, %xmm0 cmpq $16, %rax jb .LBB1_28 leaq -16(%rax), %rdx testb $16, %dl jne .LBB1_25 vpxor (%rsi), %xmm5, %xmm1 addq $16, %rsi vpclmulqdq $0, %xmm1, %xmm12, %xmm3 vpclmulqdq $1, %xmm1, %xmm12, %xmm5 vpclmulqdq $16, %xmm1, %xmm12, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm1, %xmm12, %xmm1 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm1, %xmm1 vpclmulqdq $16, %xmm7, %xmm3, %xmm5 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $16, %xmm7, %xmm3, %xmm5 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm5 movq %rdx, %rax .LBB1_25: cmpq $16, %rdx jb .LBB1_29 .p2align 4, 0x90 .LBB1_26: vpxor (%rsi), %xmm5, %xmm1 vpclmulqdq $0, %xmm1, %xmm12, %xmm3 vpclmulqdq $1, %xmm1, %xmm12, %xmm5 vpclmulqdq $16, %xmm1, %xmm12, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm1, %xmm12, %xmm1 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm1, %xmm1 vpclmulqdq $16, %xmm7, %xmm3, %xmm5 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $16, %xmm7, %xmm3, %xmm5 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm1 addq $-32, %rax vpxor 16(%rsi), %xmm1, %xmm1 addq $32, %rsi vpclmulqdq $0, %xmm1, %xmm12, %xmm3 vpclmulqdq $1, %xmm1, %xmm12, %xmm5 vpclmulqdq $16, %xmm1, %xmm12, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm1, %xmm12, %xmm1 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm1, %xmm1 vpclmulqdq $16, %xmm7, %xmm3, %xmm5 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $16, %xmm7, %xmm3, %xmm5 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm5 cmpq $15, %rax ja .LBB1_26 .LBB1_28: movq %rax, %rdx .LBB1_29: movq 520(%rsp), %rbx vmovdqa 416(%rsp), %xmm1 vpunpcklqdq 432(%rsp), %xmm1, %xmm3 vpxor %xmm4, %xmm2, %xmm1 vmovdqa %xmm1, 48(%rsp) vpsllq $3, %xmm0, %xmm0 testq %rdx, %rdx je .LBB1_31 vmovdqa %xmm0, 64(%rsp) vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rdi movq %r9, %r14 vmovdqa %xmm5, 32(%rsp) vmovdqa %xmm3, 80(%rsp) callq *memcpy@GOTPCREL(%rip) vpbroadcastq .LCPI1_20(%rip), %xmm7 vmovdqa 112(%rsp), %xmm12 vmovdqa 96(%rsp), %xmm8 movq %r14, %r9 vmovdqa 32(%rsp), %xmm0 vpxor (%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm12, %xmm1 vpclmulqdq $1, %xmm0, %xmm12, %xmm2 vpclmulqdq $16, %xmm0, %xmm12, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm12, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vmovdqa 80(%rsp), %xmm3 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm7, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm7, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm5 vmovdqa 64(%rsp), %xmm0 .LBB1_31: vpxor %xmm0, %xmm5, %xmm0 vpclmulqdq $1, %xmm0, %xmm12, %xmm1 vpclmulqdq $16, %xmm0, %xmm12, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $0, %xmm0, %xmm12, %xmm2 vpclmulqdq $17, %xmm0, %xmm12, %xmm0 vpxor %xmm3, %xmm0, %xmm0 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $16, %xmm7, %xmm2, %xmm1 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm7, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm2, %xmm0, %xmm0 movq 504(%rsp), %rcx vpand .LCPI1_14(%rip), %xmm0, %xmm0 vmovdqa 336(%rsp), %xmm2 vpxor %xmm2, %xmm0, %xmm0 vmovdqa 240(%rsp), %xmm3 vaesenc %xmm3, %xmm0, %xmm0 vmovdqa 320(%rsp), %xmm5 vaesenc %xmm5, %xmm0, %xmm0 vmovdqa 304(%rsp), %xmm6 vaesenc %xmm6, %xmm0, %xmm0 vmovdqa 288(%rsp), %xmm7 vaesenc %xmm7, %xmm0, %xmm0 vmovdqa 224(%rsp), %xmm9 vaesenc %xmm9, %xmm0, %xmm0 vmovdqa 208(%rsp), %xmm10 vaesenc %xmm10, %xmm0, %xmm0 vmovdqa 192(%rsp), %xmm11 vaesenc %xmm11, %xmm0, %xmm0 vmovdqa 176(%rsp), %xmm12 vaesenc %xmm12, %xmm0, %xmm0 vmovdqa 160(%rsp), %xmm13 vaesenc %xmm13, %xmm0, %xmm0 vmovdqa 144(%rsp), %xmm4 vaesenc %xmm4, %xmm0, %xmm0 vmovdqa 128(%rsp), %xmm14 vaesenc %xmm14, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc 16(%rsp), %xmm0, %xmm0 vmovdqa 48(%rsp), %xmm1 vaesenclast %xmm1, %xmm0, %xmm0 vmovdqu %xmm0, (%rbx) vpor .LCPI1_15(%rip), %xmm0, %xmm8 cmpq $128, %r15 jb .LBB1_35 vmovaps 96(%rsp), %xmm4 vmovaps 16(%rsp), %xmm3 .p2align 4, 0x90 .LBB1_33: vpaddd .LCPI1_0(%rip), %xmm8, %xmm0 vpaddd .LCPI1_1(%rip), %xmm8, %xmm11 vpaddd .LCPI1_2(%rip), %xmm8, %xmm12 vpaddd .LCPI1_3(%rip), %xmm8, %xmm13 vpaddd .LCPI1_4(%rip), %xmm8, %xmm14 vpaddd .LCPI1_16(%rip), %xmm8, %xmm15 vpaddd .LCPI1_17(%rip), %xmm8, %xmm1 vpxor %xmm2, %xmm8, %xmm9 vpxor %xmm0, %xmm2, %xmm10 vpxor %xmm2, %xmm11, %xmm11 vpxor %xmm2, %xmm12, %xmm12 vpxor %xmm2, %xmm13, %xmm13 vpxor %xmm2, %xmm14, %xmm14 vpxor %xmm2, %xmm15, %xmm15 vpxor %xmm1, %xmm2, %xmm0 vmovaps 240(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm0, %xmm0 #NO_APP #APP vaesenc %xmm5, %xmm9, %xmm9 vaesenc %xmm5, %xmm10, %xmm10 vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm5, %xmm12, %xmm12 vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm5, %xmm14, %xmm14 vaesenc %xmm5, %xmm15, %xmm15 vaesenc %xmm5, %xmm0, %xmm0 #NO_APP #APP vaesenc %xmm6, %xmm9, %xmm9 vaesenc %xmm6, %xmm10, %xmm10 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm14, %xmm14 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm6, %xmm0, %xmm0 #NO_APP #APP vaesenc %xmm7, %xmm9, %xmm9 vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm0, %xmm0 #NO_APP vmovaps 224(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm0, %xmm0 #NO_APP vmovaps 208(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm0, %xmm0 #NO_APP vmovaps 192(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm0, %xmm0 #NO_APP vmovaps 176(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm0, %xmm0 #NO_APP vmovaps 160(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm0, %xmm0 #NO_APP vmovaps 144(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm0, %xmm0 #NO_APP vmovaps 128(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm0, %xmm0 #NO_APP #APP vaesenc %xmm4, %xmm9, %xmm9 vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm0, %xmm0 #NO_APP #APP vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm0, %xmm0 #NO_APP vmovaps 48(%rsp), %xmm1 #APP vaesenclast %xmm1, %xmm9, %xmm9 vaesenclast %xmm1, %xmm10, %xmm10 vaesenclast %xmm1, %xmm11, %xmm11 vaesenclast %xmm1, %xmm12, %xmm12 vaesenclast %xmm1, %xmm13, %xmm13 vaesenclast %xmm1, %xmm14, %xmm14 vaesenclast %xmm1, %xmm15, %xmm15 vaesenclast %xmm1, %xmm0, %xmm0 #NO_APP vpxor (%r9), %xmm9, %xmm1 vpxor 16(%r9), %xmm10, %xmm9 vpxor 32(%r9), %xmm11, %xmm10 vpxor 48(%r9), %xmm12, %xmm11 vpxor 64(%r9), %xmm13, %xmm12 vpxor 80(%r9), %xmm14, %xmm13 vpxor 96(%r9), %xmm15, %xmm14 vpxor 112(%r9), %xmm0, %xmm0 vmovdqu %xmm1, (%rcx) vmovdqu %xmm9, 16(%rcx) vmovdqu %xmm10, 32(%rcx) vmovdqu %xmm11, 48(%rcx) vmovdqu %xmm12, 64(%rcx) vmovdqu %xmm13, 80(%rcx) vmovdqu %xmm14, 96(%rcx) vmovdqu %xmm0, 112(%rcx) addq $128, %r9 addq $128, %rcx addq $-128, %r15 vpaddd .LCPI1_18(%rip), %xmm8, %xmm8 cmpq $127, %r15 ja .LBB1_33 vmovdqa 240(%rsp), %xmm3 vmovdqa 224(%rsp), %xmm9 vmovdqa 208(%rsp), %xmm10 vmovdqa 192(%rsp), %xmm11 vmovdqa 176(%rsp), %xmm12 vmovdqa 160(%rsp), %xmm13 vmovdqa 144(%rsp), %xmm4 vmovdqa 128(%rsp), %xmm14 vmovdqa 48(%rsp), %xmm1 .LBB1_35: cmpq $16, %r15 jb .LBB1_41 leaq -16(%r15), %rbx testb $16, %bl jne .LBB1_38 leaq 16(%r9), %rsi leaq 16(%rcx), %r14 vpaddd .LCPI1_0(%rip), %xmm8, %xmm15 vpxor %xmm2, %xmm8, %xmm0 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm13, %xmm0, %xmm0 vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm14, %xmm0, %xmm0 vaesenc 96(%rsp), %xmm0, %xmm0 vaesenc 16(%rsp), %xmm0, %xmm0 vaesenclast %xmm1, %xmm0, %xmm0 vpxor (%r9), %xmm0, %xmm0 vmovdqu %xmm0, (%rcx) movq %r14, %rcx vmovdqa %xmm15, %xmm8 movq %rbx, %r15 movq %rsi, %r9 cmpq $16, %rbx jae .LBB1_39 jmp .LBB1_42 .LBB1_38: cmpq $16, %rbx jb .LBB1_42 .LBB1_39: vmovdqa 336(%rsp), %xmm3 vmovdqa 240(%rsp), %xmm4 vmovdqa 320(%rsp), %xmm5 vmovdqa 304(%rsp), %xmm6 vmovdqa 288(%rsp), %xmm7 vmovdqa 224(%rsp), %xmm9 vmovdqa 208(%rsp), %xmm10 vmovdqa 192(%rsp), %xmm11 vmovdqa 176(%rsp), %xmm12 vmovdqa 160(%rsp), %xmm13 vmovdqa 144(%rsp), %xmm15 vmovdqa 128(%rsp), %xmm14 vmovdqa 96(%rsp), %xmm1 vmovdqa 48(%rsp), %xmm0 .p2align 4, 0x90 .LBB1_40: vpxor %xmm3, %xmm8, %xmm2 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm5, %xmm2, %xmm2 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm15, %xmm2, %xmm2 vaesenc %xmm14, %xmm2, %xmm2 vaesenc %xmm1, %xmm2, %xmm2 vaesenc 16(%rsp), %xmm2, %xmm2 vaesenclast %xmm0, %xmm2, %xmm2 vpxor (%r9), %xmm2, %xmm2 vmovdqu %xmm2, (%rcx) vpaddd .LCPI1_0(%rip), %xmm8, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm5, %xmm2, %xmm2 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm15, %xmm2, %xmm2 vaesenc %xmm14, %xmm2, %xmm2 vaesenc %xmm1, %xmm2, %xmm2 vaesenc 16(%rsp), %xmm2, %xmm2 vaesenclast %xmm0, %xmm2, %xmm2 vpxor 16(%r9), %xmm2, %xmm2 vmovdqu %xmm2, 16(%rcx) addq $32, %r9 addq $32, %rcx addq $-32, %r15 vpaddd .LCPI1_1(%rip), %xmm8, %xmm8 cmpq $15, %r15 ja .LBB1_40 .LBB1_41: movq %r9, %rsi movq %rcx, %r14 movq %r15, %rbx vmovdqa %xmm8, %xmm15 .LBB1_42: testq %rbx, %rbx je .LBB1_44 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rdi movq memcpy@GOTPCREL(%rip), %r15 movq %rbx, %rdx vmovdqa %xmm15, 32(%rsp) callq *%r15 vmovdqa 32(%rsp), %xmm0 vpxor 336(%rsp), %xmm0, %xmm0 vaesenc 240(%rsp), %xmm0, %xmm0 vaesenc 320(%rsp), %xmm0, %xmm0 vaesenc 304(%rsp), %xmm0, %xmm0 vaesenc 288(%rsp), %xmm0, %xmm0 vaesenc 224(%rsp), %xmm0, %xmm0 vaesenc 208(%rsp), %xmm0, %xmm0 vaesenc 192(%rsp), %xmm0, %xmm0 vaesenc 176(%rsp), %xmm0, %xmm0 vaesenc 160(%rsp), %xmm0, %xmm0 vaesenc 144(%rsp), %xmm0, %xmm0 vaesenc 128(%rsp), %xmm0, %xmm0 vaesenc 96(%rsp), %xmm0, %xmm0 vaesenc 16(%rsp), %xmm0, %xmm0 vaesenclast 48(%rsp), %xmm0, %xmm0 vpxor (%rsp), %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rsi movq %r14, %rdi movq %rbx, %rdx callq *%r15 .LBB1_44: movzbl %bpl, %eax .LBB1_45: addq $456, %rsp .cfi_def_cfa_offset 40 popq %rbx .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end1: .size haberdashery_aes256gcmsiv_skylake_encrypt, .Lfunc_end1-haberdashery_aes256gcmsiv_skylake_encrypt .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .long 1 .long 0 .long 0 .long 0 .LCPI2_1: .long 2 .long 0 .long 0 .long 0 .LCPI2_2: .long 3 .long 0 .long 0 .long 0 .LCPI2_3: .quad 4 .quad 0 .LCPI2_4: .long 5 .long 0 .long 0 .long 0 .LCPI2_5: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI2_6: .quad 4294967297 .quad 4294967297 .LCPI2_7: .quad 8589934594 .quad 8589934594 .LCPI2_8: .quad 17179869188 .quad 17179869188 .LCPI2_9: .quad 34359738376 .quad 34359738376 .LCPI2_10: .quad 68719476752 .quad 68719476752 .LCPI2_11: .quad 137438953504 .quad 137438953504 .LCPI2_12: .quad 274877907008 .quad 274877907008 .LCPI2_13: .zero 8 .quad -4467570830351532032 .LCPI2_14: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 128 .LCPI2_15: .long 6 .long 0 .long 0 .long 0 .LCPI2_16: .long 7 .long 0 .long 0 .long 0 .LCPI2_17: .long 8 .long 0 .long 0 .long 0 .LCPI2_18: .long 9 .long 0 .long 0 .long 0 .LCPI2_19: .long 10 .long 0 .long 0 .long 0 .LCPI2_20: .long 11 .long 0 .long 0 .long 0 .LCPI2_21: .quad -1 .quad 9223372036854775807 .LCPI2_22: .zero 16 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI2_23: .byte 13 .byte 14 .byte 15 .byte 12 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI2_24: .quad -4467570830351532032 .section .text.haberdashery_aes256gcmsiv_skylake_decrypt,"ax",@progbits .globl haberdashery_aes256gcmsiv_skylake_decrypt .p2align 4, 0x90 .type haberdashery_aes256gcmsiv_skylake_decrypt,@function haberdashery_aes256gcmsiv_skylake_decrypt: .cfi_startproc pushq %r15 .cfi_def_cfa_offset 16 pushq %r14 .cfi_def_cfa_offset 24 pushq %rbx .cfi_def_cfa_offset 32 subq $480, %rsp .cfi_def_cfa_offset 512 .cfi_offset %rbx, -32 .cfi_offset %r14, -24 .cfi_offset %r15, -16 movq 512(%rsp), %rbx xorl %eax, %eax cmpq 544(%rsp), %rbx jne .LBB2_34 cmpq $12, %rdx jne .LBB2_34 movabsq $68719476737, %rdx cmpq %rdx, %r8 jae .LBB2_34 cmpq %rdx, %rbx jae .LBB2_34 cmpq $16, 528(%rsp) jb .LBB2_34 vmovsd 4(%rsi), %xmm0 vmovss (%rsi), %xmm1 vshufps $65, %xmm0, %xmm1, %xmm0 vxorps (%rdi), %xmm0, %xmm2 vxorps .LCPI2_0(%rip), %xmm2, %xmm3 vxorps .LCPI2_1(%rip), %xmm2, %xmm0 vxorps .LCPI2_2(%rip), %xmm2, %xmm4 vxorps .LCPI2_3(%rip), %xmm2, %xmm1 vxorps .LCPI2_4(%rip), %xmm2, %xmm5 vmovaps 16(%rdi), %xmm6 vmovaps 32(%rdi), %xmm7 vmovaps 48(%rdi), %xmm8 vmovaps 64(%rdi), %xmm9 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm5, %xmm5 #NO_APP vmovaps 80(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 96(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 112(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 128(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 144(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 160(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 176(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 192(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 208(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovdqa 224(%rdi), %xmm6 #APP vaesenclast %xmm6, %xmm2, %xmm2 vaesenclast %xmm6, %xmm3, %xmm3 vaesenclast %xmm6, %xmm0, %xmm0 vaesenclast %xmm6, %xmm4, %xmm4 vaesenclast %xmm6, %xmm1, %xmm1 vaesenclast %xmm6, %xmm5, %xmm5 #NO_APP vpunpcklqdq %xmm3, %xmm2, %xmm13 vpunpcklqdq %xmm4, %xmm0, %xmm4 vpunpcklqdq %xmm5, %xmm1, %xmm10 vpslldq $4, %xmm4, %xmm2 vpxor %xmm6, %xmm6, %xmm6 vpunpcklqdq %xmm0, %xmm6, %xmm3 vinsertps $55, %xmm0, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpxor %xmm0, %xmm2, %xmm2 vpbroadcastd .LCPI2_23(%rip), %xmm7 vpshufb %xmm7, %xmm10, %xmm3 vaesenclast .LCPI2_6(%rip), %xmm3, %xmm3 vmovdqa %xmm4, 304(%rsp) vpxor %xmm4, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm9 vpslldq $4, %xmm10, %xmm2 vpunpcklqdq %xmm1, %xmm6, %xmm3 vinsertps $55, %xmm1, %xmm0, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpshufd $255, %xmm9, %xmm2 vaesenclast %xmm6, %xmm2, %xmm2 vpxor %xmm1, %xmm10, %xmm1 vpxor %xmm1, %xmm2, %xmm11 vpslldq $4, %xmm9, %xmm1 vpslldq $8, %xmm9, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm9, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufb %xmm7, %xmm11, %xmm2 vaesenclast .LCPI2_7(%rip), %xmm2, %xmm2 vpxor %xmm1, %xmm9, %xmm1 vpxor %xmm1, %xmm2, %xmm3 vpslldq $4, %xmm11, %xmm1 vpslldq $8, %xmm11, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm11, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufd $255, %xmm3, %xmm2 vaesenclast %xmm6, %xmm2, %xmm2 vpxor %xmm1, %xmm11, %xmm1 vpxor %xmm1, %xmm2, %xmm4 vpslldq $4, %xmm3, %xmm1 vpslldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufb %xmm7, %xmm4, %xmm2 vaesenclast .LCPI2_8(%rip), %xmm2, %xmm2 vmovdqa %xmm3, 144(%rsp) vpxor %xmm3, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm3 vpslldq $4, %xmm4, %xmm1 vpslldq $8, %xmm4, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm4, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufd $255, %xmm3, %xmm2 vaesenclast %xmm6, %xmm2, %xmm2 vmovdqa %xmm4, 128(%rsp) vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm4 vmovdqa %xmm4, 96(%rsp) vpslldq $4, %xmm3, %xmm1 vpslldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufb %xmm7, %xmm4, %xmm2 vaesenclast .LCPI2_9(%rip), %xmm2, %xmm2 vmovdqa %xmm3, 112(%rsp) vpxor %xmm3, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm5 vmovdqa %xmm5, 208(%rsp) vpslldq $4, %xmm4, %xmm1 vpslldq $8, %xmm4, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm4, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufd $255, %xmm5, %xmm2 vaesenclast %xmm6, %xmm2, %xmm2 vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm4 vmovdqa %xmm4, 192(%rsp) vpslldq $4, %xmm5, %xmm1 vpslldq $8, %xmm5, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm5, %xmm2 vpshufb %xmm7, %xmm4, %xmm3 vaesenclast .LCPI2_10(%rip), %xmm3, %xmm3 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm5, %xmm1, %xmm1 vpxor %xmm5, %xmm5, %xmm5 vpxor %xmm1, %xmm3, %xmm0 vpslldq $4, %xmm4, %xmm1 vpslldq $8, %xmm4, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm4, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufd $255, %xmm0, %xmm2 vaesenclast %xmm5, %xmm2, %xmm2 vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm3 vpslldq $4, %xmm0, %xmm1 vpslldq $8, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufb %xmm7, %xmm3, %xmm2 vaesenclast .LCPI2_11(%rip), %xmm2, %xmm2 vmovdqa %xmm0, 240(%rsp) vpxor %xmm0, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm0 vpslldq $4, %xmm3, %xmm1 vpslldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpslldq $12, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufd $255, %xmm0, %xmm2 vaesenclast %xmm5, %xmm2, %xmm2 vmovdqa %xmm3, 288(%rsp) vpxor %xmm3, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm14 vpslldq $4, %xmm0, %xmm1 vpslldq $8, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm13, %xmm13, %xmm2 vpbroadcastq .LCPI2_24(%rip), %xmm6 vpclmulqdq $16, %xmm6, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm13, %xmm13, %xmm3 vpshufd $78, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm7 vpclmulqdq $16, %xmm13, %xmm7, %xmm2 vpclmulqdq $1, %xmm13, %xmm7, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $0, %xmm13, %xmm7, %xmm3 vpslldq $8, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $17, %xmm13, %xmm7, %xmm4 vpxor %xmm2, %xmm4, %xmm2 vpshufd $78, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $16, %xmm6, %xmm3, %xmm3 vpxor %xmm3, %xmm2, %xmm8 vpclmulqdq $0, %xmm8, %xmm8, %xmm2 vpclmulqdq $16, %xmm6, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm8, %xmm8, %xmm3 vpshufd $78, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vmovdqa %xmm2, 256(%rsp) vpclmulqdq $0, %xmm7, %xmm7, %xmm2 vpclmulqdq $16, %xmm6, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm7, %xmm7, %xmm3 vpshufd $78, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm15 vpclmulqdq $16, %xmm13, %xmm15, %xmm2 vpclmulqdq $1, %xmm13, %xmm15, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $0, %xmm13, %xmm15, %xmm3 vpslldq $8, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $17, %xmm13, %xmm15, %xmm4 vpxor %xmm2, %xmm4, %xmm2 vpshufd $78, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $16, %xmm6, %xmm3, %xmm3 vpxor %xmm3, %xmm2, %xmm12 vmovdqa %xmm0, 80(%rsp) vpslldq $12, %xmm0, %xmm0 cmpq $96, %r8 vmovdqa %xmm10, 64(%rsp) vmovdqa %xmm9, 48(%rsp) vmovdqa %xmm14, 224(%rsp) jb .LBB2_9 vmovdqa %xmm0, 32(%rsp) vmovdqa %xmm1, (%rsp) movq %r8, %rax vmovdqa %xmm15, %xmm2 vmovdqa 256(%rsp), %xmm15 vmovdqa %xmm7, %xmm1 vmovdqa %xmm8, %xmm0 .p2align 4, 0x90 .LBB2_7: vmovdqu 32(%rcx), %xmm3 vmovdqu 48(%rcx), %xmm4 vmovdqa %xmm5, %xmm14 vmovdqu 64(%rcx), %xmm5 vmovdqu 80(%rcx), %xmm6 vpclmulqdq $0, %xmm6, %xmm13, %xmm7 vpclmulqdq $1, %xmm6, %xmm13, %xmm8 vpclmulqdq $16, %xmm6, %xmm13, %xmm9 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $17, %xmm6, %xmm13, %xmm6 vpclmulqdq $0, %xmm5, %xmm1, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $1, %xmm5, %xmm1, %xmm9 vpclmulqdq $16, %xmm5, %xmm1, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpclmulqdq $17, %xmm5, %xmm1, %xmm5 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $0, %xmm4, %xmm0, %xmm6 vpclmulqdq $1, %xmm4, %xmm0, %xmm9 vpclmulqdq $16, %xmm4, %xmm0, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpclmulqdq $0, %xmm3, %xmm2, %xmm10 vpxor %xmm6, %xmm10, %xmm6 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $1, %xmm3, %xmm2, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vmovdqu 16(%rcx), %xmm9 vpxor (%rcx), %xmm14, %xmm10 vpclmulqdq $17, %xmm4, %xmm0, %xmm4 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $16, %xmm3, %xmm2, %xmm8 vpclmulqdq $17, %xmm3, %xmm2, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $0, %xmm9, %xmm12, %xmm4 vpclmulqdq $1, %xmm9, %xmm12, %xmm5 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $16, %xmm9, %xmm12, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $0, %xmm10, %xmm15, %xmm8 vpxor %xmm4, %xmm8, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $1, %xmm10, %xmm15, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $16, %xmm10, %xmm15, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $17, %xmm9, %xmm12, %xmm6 vpclmulqdq $17, %xmm10, %xmm15, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpbroadcastq .LCPI2_24(%rip), %xmm6 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm6, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpshufd $78, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm6, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm5 addq $96, %rcx addq $-96, %rax cmpq $95, %rax ja .LBB2_7 vmovdqa 64(%rsp), %xmm10 vmovdqa 48(%rsp), %xmm9 vmovdqa %xmm1, %xmm7 vmovdqa %xmm0, %xmm8 vmovdqa %xmm2, %xmm15 vmovdqa 224(%rsp), %xmm14 vmovdqa (%rsp), %xmm1 vmovdqa 32(%rsp), %xmm0 jmp .LBB2_10 .LBB2_9: movq %r8, %rax .LBB2_10: vmovdqa %xmm12, 368(%rsp) vpxor %xmm0, %xmm1, %xmm1 vpshufb .LCPI2_5(%rip), %xmm14, %xmm0 movq 520(%rsp), %rdi cmpq $16, %rax jb .LBB2_16 leaq -16(%rax), %rdx testb $16, %dl jne .LBB2_13 vpxor (%rcx), %xmm5, %xmm2 addq $16, %rcx vpclmulqdq $0, %xmm2, %xmm13, %xmm3 vpclmulqdq $1, %xmm2, %xmm13, %xmm4 vpclmulqdq $16, %xmm2, %xmm13, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm2, %xmm13, %xmm2 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpsrldq $8, %xmm4, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm5 movq %rdx, %rax .LBB2_13: cmpq $16, %rdx jb .LBB2_17 .p2align 4, 0x90 .LBB2_14: vpxor (%rcx), %xmm5, %xmm2 vpclmulqdq $0, %xmm2, %xmm13, %xmm3 vpclmulqdq $1, %xmm2, %xmm13, %xmm4 vpclmulqdq $16, %xmm2, %xmm13, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm2, %xmm13, %xmm2 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpsrldq $8, %xmm4, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 addq $-32, %rax vpxor 16(%rcx), %xmm2, %xmm2 addq $32, %rcx vpclmulqdq $0, %xmm2, %xmm13, %xmm3 vpclmulqdq $1, %xmm2, %xmm13, %xmm4 vpclmulqdq $16, %xmm2, %xmm13, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm2, %xmm13, %xmm2 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpsrldq $8, %xmm4, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm5 cmpq $15, %rax ja .LBB2_14 .LBB2_16: movq %rax, %rdx .LBB2_17: vmovdqa %xmm15, 336(%rsp) vmovdqa %xmm8, 384(%rsp) vmovdqa %xmm7, 400(%rsp) vmovss 8(%rsi), %xmm2 vmovaps %xmm2, 464(%rsp) vmovq (%rsi), %xmm2 vmovdqa %xmm2, 448(%rsp) vaesenclast .LCPI2_12(%rip), %xmm0, %xmm3 vmovdqa 80(%rsp), %xmm7 vpxor %xmm7, %xmm1, %xmm4 vmovdqu (%rdi), %xmm0 vmovdqa %xmm0, 352(%rsp) testq %rdx, %rdx vmovdqa %xmm13, 176(%rsp) vmovdqa %xmm11, 160(%rsp) vmovdqa 240(%rsp), %xmm15 je .LBB2_19 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 16(%rsp) leaq 16(%rsp), %rdi movq %rcx, %rsi movq %r9, %r14 movq %r8, %r15 vmovdqa %xmm5, (%rsp) vmovdqa %xmm3, 32(%rsp) vmovdqa %xmm4, 272(%rsp) callq *memcpy@GOTPCREL(%rip) vpbroadcastq .LCPI2_24(%rip), %xmm6 vmovdqa 224(%rsp), %xmm14 vmovdqa 240(%rsp), %xmm15 vmovdqa 160(%rsp), %xmm11 vmovdqa 176(%rsp), %xmm4 vmovdqa 48(%rsp), %xmm9 vmovdqa 64(%rsp), %xmm10 movq %r15, %r8 movq %r14, %r9 vmovdqa (%rsp), %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm4, %xmm1 vpclmulqdq $1, %xmm0, %xmm4, %xmm2 vpclmulqdq $16, %xmm0, %xmm4, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm4, %xmm0 vmovdqa 272(%rsp), %xmm4 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vmovdqa 32(%rsp), %xmm3 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm6, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm6, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm5 .LBB2_19: vmovq %rbx, %xmm1 vmovq %r8, %xmm2 movq 536(%rsp), %rdx vpxor %xmm4, %xmm3, %xmm12 vmovdqa 352(%rsp), %xmm0 vpor .LCPI2_14(%rip), %xmm0, %xmm3 cmpq $96, %rbx vmovdqa %xmm12, 320(%rsp) jb .LBB2_26 vmovdqa %xmm2, 416(%rsp) vmovdqa %xmm1, 432(%rsp) vmovdqa %xmm5, (%rsp) leaq 96(%r9), %rcx leaq 96(%rdx), %rax vpaddd .LCPI2_0(%rip), %xmm3, %xmm1 vpaddd .LCPI2_1(%rip), %xmm3, %xmm4 vpaddd .LCPI2_2(%rip), %xmm3, %xmm6 vpaddd .LCPI2_3(%rip), %xmm3, %xmm7 vpaddd .LCPI2_4(%rip), %xmm3, %xmm8 vmovdqa %xmm11, %xmm13 vmovdqa 304(%rsp), %xmm11 vpxor %xmm3, %xmm11, %xmm0 vpxor %xmm1, %xmm11, %xmm2 vpxor %xmm4, %xmm11, %xmm5 vpxor %xmm6, %xmm11, %xmm6 vpxor %xmm7, %xmm11, %xmm7 vpxor %xmm8, %xmm11, %xmm8 #APP vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm10, %xmm6, %xmm6 vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm10, %xmm8, %xmm8 #NO_APP #APP vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm9, %xmm6, %xmm6 vaesenc %xmm9, %xmm7, %xmm7 vaesenc %xmm9, %xmm8, %xmm8 #NO_APP #APP vaesenc %xmm13, %xmm0, %xmm0 vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm13, %xmm5, %xmm5 vaesenc %xmm13, %xmm6, %xmm6 vaesenc %xmm13, %xmm7, %xmm7 vaesenc %xmm13, %xmm8, %xmm8 #NO_APP vmovaps 144(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm6, %xmm6 vaesenc %xmm1, %xmm7, %xmm7 vaesenc %xmm1, %xmm8, %xmm8 #NO_APP vmovaps 128(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm6, %xmm6 vaesenc %xmm1, %xmm7, %xmm7 vaesenc %xmm1, %xmm8, %xmm8 #NO_APP vmovaps 112(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm6, %xmm6 vaesenc %xmm1, %xmm7, %xmm7 vaesenc %xmm1, %xmm8, %xmm8 #NO_APP vmovaps 96(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm6, %xmm6 vaesenc %xmm1, %xmm7, %xmm7 vaesenc %xmm1, %xmm8, %xmm8 #NO_APP vmovaps 208(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm6, %xmm6 vaesenc %xmm1, %xmm7, %xmm7 vaesenc %xmm1, %xmm8, %xmm8 #NO_APP vmovaps 192(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm6, %xmm6 vaesenc %xmm1, %xmm7, %xmm7 vaesenc %xmm1, %xmm8, %xmm8 #NO_APP #APP vaesenc %xmm15, %xmm0, %xmm0 vaesenc %xmm15, %xmm2, %xmm2 vaesenc %xmm15, %xmm5, %xmm5 vaesenc %xmm15, %xmm6, %xmm6 vaesenc %xmm15, %xmm7, %xmm7 vaesenc %xmm15, %xmm8, %xmm8 #NO_APP vmovaps 288(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm6, %xmm6 vaesenc %xmm1, %xmm7, %xmm7 vaesenc %xmm1, %xmm8, %xmm8 #NO_APP vmovaps 80(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm6, %xmm6 vaesenc %xmm1, %xmm7, %xmm7 vaesenc %xmm1, %xmm8, %xmm8 #NO_APP #APP vaesenc %xmm14, %xmm0, %xmm0 vaesenc %xmm14, %xmm2, %xmm2 vaesenc %xmm14, %xmm5, %xmm5 vaesenc %xmm14, %xmm6, %xmm6 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm8, %xmm8 #NO_APP #APP vaesenclast %xmm12, %xmm0, %xmm0 vaesenclast %xmm12, %xmm2, %xmm2 vaesenclast %xmm12, %xmm5, %xmm5 vaesenclast %xmm12, %xmm6, %xmm6 vaesenclast %xmm12, %xmm7, %xmm7 vaesenclast %xmm12, %xmm8, %xmm8 #NO_APP vpxor (%r9), %xmm0, %xmm1 vpxor 16(%r9), %xmm2, %xmm4 vpxor 32(%r9), %xmm5, %xmm5 vpxor 48(%r9), %xmm6, %xmm13 vpxor 64(%r9), %xmm7, %xmm14 vpxor 80(%r9), %xmm8, %xmm0 vmovdqu %xmm1, (%rdx) vmovdqu %xmm4, 16(%rdx) vmovdqu %xmm5, 32(%rdx) vmovdqu %xmm13, 48(%rdx) vmovdqu %xmm14, 64(%rdx) addq $-96, %rbx vmovdqu %xmm0, 80(%rdx) vpaddd .LCPI2_15(%rip), %xmm3, %xmm2 cmpq $96, %rbx jb .LBB2_24 vmovdqa (%rsp), %xmm6 .p2align 4, 0x90 .LBB2_22: vmovdqa %xmm4, 272(%rsp) vmovdqa %xmm2, (%rsp) vpxor %xmm6, %xmm1, %xmm1 vmovdqa %xmm1, 32(%rsp) vpaddd .LCPI2_16(%rip), %xmm3, %xmm6 vpaddd .LCPI2_17(%rip), %xmm3, %xmm7 vpaddd .LCPI2_18(%rip), %xmm3, %xmm8 vpaddd .LCPI2_19(%rip), %xmm3, %xmm9 vpaddd .LCPI2_20(%rip), %xmm3, %xmm10 vmovdqa 304(%rsp), %xmm11 vpxor %xmm2, %xmm11, %xmm1 vpxor %xmm6, %xmm11, %xmm6 vpxor %xmm7, %xmm11, %xmm7 vpxor %xmm8, %xmm11, %xmm8 vpxor %xmm9, %xmm11, %xmm3 vpxor %xmm10, %xmm11, %xmm15 vpxor %xmm9, %xmm9, %xmm9 vpxor %xmm10, %xmm10, %xmm10 vpxor %xmm11, %xmm11, %xmm11 vmovaps 64(%rsp), %xmm4 vmovaps 176(%rsp), %xmm2 #APP vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm6, %xmm6 vaesenc %xmm4, %xmm7, %xmm7 vaesenc %xmm4, %xmm8, %xmm8 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm15, %xmm15 vpclmulqdq $16, %xmm2, %xmm0, %xmm12 vpxor %xmm12, %xmm9, %xmm9 vpclmulqdq $0, %xmm2, %xmm0, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpclmulqdq $17, %xmm2, %xmm0, %xmm12 vpxor %xmm12, %xmm10, %xmm10 vpclmulqdq $1, %xmm2, %xmm0, %xmm12 vpxor %xmm12, %xmm9, %xmm9 #NO_APP vmovdqa 256(%rsp), %xmm12 vmovaps 48(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm8, %xmm8 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm15, %xmm15 #NO_APP vmovaps 160(%rsp), %xmm2 vmovaps 400(%rsp), %xmm4 #APP vaesenc %xmm2, %xmm1, %xmm1 vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm15, %xmm15 vpclmulqdq $16, %xmm4, %xmm14, %xmm0 vpxor %xmm0, %xmm9, %xmm9 vpclmulqdq $0, %xmm4, %xmm14, %xmm0 vpxor %xmm0, %xmm11, %xmm11 vpclmulqdq $17, %xmm4, %xmm14, %xmm0 vpxor %xmm0, %xmm10, %xmm10 vpclmulqdq $1, %xmm4, %xmm14, %xmm0 vpxor %xmm0, %xmm9, %xmm9 #NO_APP vmovaps 144(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm8, %xmm8 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm15, %xmm15 #NO_APP vmovaps 128(%rsp), %xmm2 vmovaps 384(%rsp), %xmm4 #APP vaesenc %xmm2, %xmm1, %xmm1 vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm15, %xmm15 vpclmulqdq $16, %xmm4, %xmm13, %xmm0 vpxor %xmm0, %xmm9, %xmm9 vpclmulqdq $0, %xmm4, %xmm13, %xmm0 vpxor %xmm0, %xmm11, %xmm11 vpclmulqdq $17, %xmm4, %xmm13, %xmm0 vpxor %xmm0, %xmm10, %xmm10 vpclmulqdq $1, %xmm4, %xmm13, %xmm0 vpxor %xmm0, %xmm9, %xmm9 #NO_APP vmovaps 112(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm8, %xmm8 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm15, %xmm15 #NO_APP vmovaps 96(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm8, %xmm8 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm15, %xmm15 #NO_APP vmovaps 336(%rsp), %xmm4 vmovaps 208(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm1, %xmm1 vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm15, %xmm15 vpclmulqdq $16, %xmm4, %xmm5, %xmm0 vpxor %xmm0, %xmm9, %xmm9 vpclmulqdq $0, %xmm4, %xmm5, %xmm0 vpxor %xmm0, %xmm11, %xmm11 vpclmulqdq $17, %xmm4, %xmm5, %xmm0 vpxor %xmm0, %xmm10, %xmm10 vpclmulqdq $1, %xmm4, %xmm5, %xmm0 vpxor %xmm0, %xmm9, %xmm9 #NO_APP vmovaps 192(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm8, %xmm8 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm15, %xmm15 #NO_APP vmovaps 240(%rsp), %xmm5 vmovaps 368(%rsp), %xmm2 vmovaps 272(%rsp), %xmm4 #APP vaesenc %xmm5, %xmm1, %xmm1 vaesenc %xmm5, %xmm6, %xmm6 vaesenc %xmm5, %xmm7, %xmm7 vaesenc %xmm5, %xmm8, %xmm8 vaesenc %xmm5, %xmm3, %xmm3 vaesenc %xmm5, %xmm15, %xmm15 vpclmulqdq $16, %xmm2, %xmm4, %xmm0 vpxor %xmm0, %xmm9, %xmm9 vpclmulqdq $0, %xmm2, %xmm4, %xmm0 vpxor %xmm0, %xmm11, %xmm11 vpclmulqdq $17, %xmm2, %xmm4, %xmm0 vpxor %xmm0, %xmm10, %xmm10 vpclmulqdq $1, %xmm2, %xmm4, %xmm0 vpxor %xmm0, %xmm9, %xmm9 #NO_APP vmovaps 288(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm8, %xmm8 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm15, %xmm15 #NO_APP vmovaps 80(%rsp), %xmm2 vmovdqa 32(%rsp), %xmm4 #APP vaesenc %xmm2, %xmm1, %xmm1 vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm15, %xmm15 vpclmulqdq $16, %xmm12, %xmm4, %xmm0 vpxor %xmm0, %xmm9, %xmm9 vpclmulqdq $0, %xmm12, %xmm4, %xmm0 vpxor %xmm0, %xmm11, %xmm11 vpclmulqdq $17, %xmm12, %xmm4, %xmm0 vpxor %xmm0, %xmm10, %xmm10 vpclmulqdq $1, %xmm12, %xmm4, %xmm0 vpxor %xmm0, %xmm9, %xmm9 #NO_APP vpxor %xmm4, %xmm4, %xmm4 vpunpcklqdq %xmm9, %xmm4, %xmm0 vpxor %xmm0, %xmm11, %xmm0 vmovaps 224(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm1, %xmm1 vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm15, %xmm15 #NO_APP vmovaps 320(%rsp), %xmm2 #APP vaesenclast %xmm2, %xmm1, %xmm1 vaesenclast %xmm2, %xmm6, %xmm6 vaesenclast %xmm2, %xmm7, %xmm7 vaesenclast %xmm2, %xmm8, %xmm8 vaesenclast %xmm2, %xmm3, %xmm3 vaesenclast %xmm2, %xmm15, %xmm15 #NO_APP vpunpckhqdq %xmm4, %xmm9, %xmm4 vpxor %xmm4, %xmm10, %xmm9 vpbroadcastq .LCPI2_24(%rip), %xmm11 vpclmulqdq $16, %xmm11, %xmm0, %xmm4 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm4, %xmm10 vpshufd $78, %xmm10, %xmm0 vpxor (%rcx), %xmm1, %xmm1 vpxor 16(%rcx), %xmm6, %xmm4 vpxor 32(%rcx), %xmm7, %xmm5 vpxor 48(%rcx), %xmm8, %xmm13 vpxor %xmm0, %xmm9, %xmm6 vmovdqa (%rsp), %xmm2 vpxor 64(%rcx), %xmm3, %xmm14 vpxor 80(%rcx), %xmm15, %xmm0 addq $96, %rcx vmovdqu %xmm1, (%rax) vmovdqu %xmm4, 16(%rax) vmovdqu %xmm5, 32(%rax) vmovdqu %xmm13, 48(%rax) vmovdqu %xmm14, 64(%rax) vmovdqu %xmm0, 80(%rax) addq $96, %rax addq $-96, %rbx vpclmulqdq $16, %xmm11, %xmm10, %xmm3 vpxor %xmm3, %xmm6, %xmm6 vmovdqa %xmm2, %xmm3 vpaddd .LCPI2_15(%rip), %xmm2, %xmm2 cmpq $95, %rbx ja .LBB2_22 vmovdqa %xmm6, (%rsp) jmp .LBB2_25 .LBB2_24: vmovdqa 256(%rsp), %xmm12 .LBB2_25: vmovdqa 336(%rsp), %xmm15 vpxor (%rsp), %xmm1, %xmm1 vmovdqa 176(%rsp), %xmm9 vpclmulqdq $0, %xmm0, %xmm9, %xmm3 vpclmulqdq $1, %xmm0, %xmm9, %xmm6 vpclmulqdq $16, %xmm0, %xmm9, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vmovdqa 400(%rsp), %xmm10 vpclmulqdq $0, %xmm14, %xmm10, %xmm7 vpxor %xmm3, %xmm7, %xmm3 vpclmulqdq $1, %xmm14, %xmm10, %xmm7 vpclmulqdq $16, %xmm14, %xmm10, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $17, %xmm0, %xmm9, %xmm0 vpclmulqdq $17, %xmm14, %xmm10, %xmm7 vpxor %xmm0, %xmm7, %xmm0 vmovdqa 384(%rsp), %xmm9 vpclmulqdq $1, %xmm13, %xmm9, %xmm7 vpclmulqdq $16, %xmm13, %xmm9, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm13, %xmm9, %xmm8 vpclmulqdq $17, %xmm13, %xmm9, %xmm9 vpclmulqdq $0, %xmm5, %xmm15, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpxor %xmm3, %xmm8, %xmm3 vpclmulqdq $1, %xmm5, %xmm15, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm15, %xmm7 vpclmulqdq $17, %xmm5, %xmm15, %xmm5 vpxor %xmm5, %xmm9, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vmovdqa 368(%rsp), %xmm8 vpclmulqdq $0, %xmm4, %xmm8, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $1, %xmm4, %xmm8, %xmm5 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $16, %xmm4, %xmm8, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm4, %xmm8, %xmm4 vpxor %xmm4, %xmm0, %xmm0 vpclmulqdq $0, %xmm1, %xmm12, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $1, %xmm1, %xmm12, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm1, %xmm12, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $17, %xmm1, %xmm12, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm4, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpsrldq $8, %xmm4, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpbroadcastq .LCPI2_24(%rip), %xmm6 vpclmulqdq $16, %xmm6, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpshufd $78, %xmm1, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpclmulqdq $16, %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm5 movq %rax, %rdx movq %rcx, %r9 vmovdqa %xmm2, %xmm3 vmovdqa 432(%rsp), %xmm1 vmovdqa 416(%rsp), %xmm2 .LBB2_26: vpunpcklqdq %xmm1, %xmm2, %xmm0 vmovdqa %xmm0, 32(%rsp) cmpq $16, %rbx jb .LBB2_29 vmovdqa 176(%rsp), %xmm7 vmovdqa 80(%rsp), %xmm13 vmovdqa 64(%rsp), %xmm9 vmovdqa 48(%rsp), %xmm1 vmovdqa 320(%rsp), %xmm11 vmovdqa 160(%rsp), %xmm8 vmovdqa 112(%rsp), %xmm0 vmovdqa 128(%rsp), %xmm14 vmovdqa 144(%rsp), %xmm12 vmovdqa 96(%rsp), %xmm15 .p2align 4, 0x90 .LBB2_28: vpxor 304(%rsp), %xmm3, %xmm2 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm14, %xmm2, %xmm2 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm15, %xmm2, %xmm2 vaesenc 208(%rsp), %xmm2, %xmm2 vaesenc 192(%rsp), %xmm2, %xmm2 vaesenc 240(%rsp), %xmm2, %xmm2 vaesenc 288(%rsp), %xmm2, %xmm2 vaesenc %xmm13, %xmm2, %xmm2 vaesenc 224(%rsp), %xmm2, %xmm2 vaesenclast %xmm11, %xmm2, %xmm2 vpxor (%r9), %xmm2, %xmm2 vmovdqu %xmm2, (%rdx) vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $0, %xmm2, %xmm7, %xmm4 vpclmulqdq $1, %xmm2, %xmm7, %xmm5 vpclmulqdq $16, %xmm2, %xmm7, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpbroadcastq .LCPI2_24(%rip), %xmm6 vpclmulqdq $17, %xmm2, %xmm7, %xmm2 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $16, %xmm6, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpshufd $78, %xmm4, %xmm5 vpxor %xmm5, %xmm2, %xmm2 leaq 16(%r9), %rsi leaq 16(%rdx), %r14 addq $-16, %rbx vpaddd .LCPI2_0(%rip), %xmm3, %xmm10 vpclmulqdq $16, %xmm6, %xmm4, %xmm3 vpxor %xmm2, %xmm3, %xmm5 movq %r14, %rdx vmovdqa %xmm10, %xmm3 movq %rsi, %r9 cmpq $15, %rbx ja .LBB2_28 jmp .LBB2_30 .LBB2_29: movq %rdx, %r14 movq %r9, %rsi vmovdqa %xmm3, %xmm10 vmovdqa 176(%rsp), %xmm7 .LBB2_30: vmovdqa %xmm5, (%rsp) vmovdqa 448(%rsp), %xmm0 vpunpcklqdq 464(%rsp), %xmm0, %xmm3 vmovdqa 32(%rsp), %xmm0 vpsllq $3, %xmm0, %xmm1 testq %rbx, %rbx je .LBB2_32 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 16(%rsp) leaq 16(%rsp), %rdi movq memcpy@GOTPCREL(%rip), %r15 movq %rbx, %rdx vmovdqa %xmm3, 32(%rsp) vmovdqa %xmm1, 272(%rsp) vmovdqa %xmm10, 256(%rsp) callq *%r15 vmovdqa 256(%rsp), %xmm0 vpxor 304(%rsp), %xmm0, %xmm0 vaesenc 64(%rsp), %xmm0, %xmm0 vaesenc 48(%rsp), %xmm0, %xmm0 vaesenc 160(%rsp), %xmm0, %xmm0 vaesenc 144(%rsp), %xmm0, %xmm0 vaesenc 128(%rsp), %xmm0, %xmm0 vaesenc 112(%rsp), %xmm0, %xmm0 vaesenc 96(%rsp), %xmm0, %xmm0 vaesenc 208(%rsp), %xmm0, %xmm0 vaesenc 192(%rsp), %xmm0, %xmm0 vaesenc 240(%rsp), %xmm0, %xmm0 vaesenc 288(%rsp), %xmm0, %xmm0 vaesenc 80(%rsp), %xmm0, %xmm0 vaesenc 224(%rsp), %xmm0, %xmm0 vaesenclast 320(%rsp), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 vmovdqa %xmm0, 16(%rsp) leaq 16(%rsp), %rsi movq %r14, %rdi movq %rbx, %rdx callq *%r15 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 16(%rsp) leaq 16(%rsp), %rdi movq %r14, %rsi movq %rbx, %rdx callq *%r15 vmovdqa 80(%rsp), %xmm15 vmovdqa 192(%rsp), %xmm14 vmovdqa 208(%rsp), %xmm13 vpbroadcastq .LCPI2_24(%rip), %xmm6 vmovdqa 96(%rsp), %xmm12 vmovdqa 112(%rsp), %xmm9 vmovdqa 128(%rsp), %xmm10 vmovdqa 144(%rsp), %xmm11 vmovdqa 160(%rsp), %xmm8 vmovdqa 176(%rsp), %xmm7 vmovdqa 48(%rsp), %xmm5 vmovdqa 64(%rsp), %xmm4 vmovdqa (%rsp), %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm7, %xmm1 vpclmulqdq $1, %xmm0, %xmm7, %xmm2 vpclmulqdq $16, %xmm0, %xmm7, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm7, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vmovdqa 32(%rsp), %xmm3 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm6, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm6, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vmovdqa 272(%rsp), %xmm1 vpxor %xmm0, %xmm2, %xmm0 jmp .LBB2_33 .LBB2_32: vmovdqa 208(%rsp), %xmm13 vmovdqa 192(%rsp), %xmm14 vmovdqa 80(%rsp), %xmm15 vmovdqa 64(%rsp), %xmm4 vmovdqa 48(%rsp), %xmm5 vmovdqa (%rsp), %xmm0 vmovdqa 160(%rsp), %xmm8 vmovdqa 112(%rsp), %xmm9 vmovdqa 128(%rsp), %xmm10 vmovdqa 144(%rsp), %xmm11 vmovdqa 96(%rsp), %xmm12 .LBB2_33: vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $1, %xmm0, %xmm7, %xmm1 vpclmulqdq $16, %xmm0, %xmm7, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $0, %xmm0, %xmm7, %xmm2 vpclmulqdq $17, %xmm0, %xmm7, %xmm0 vpxor %xmm3, %xmm0, %xmm0 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $16, %xmm6, %xmm2, %xmm1 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm6, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vpand .LCPI2_21(%rip), %xmm0, %xmm0 vpxor 304(%rsp), %xmm0, %xmm0 vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm13, %xmm0, %xmm0 vaesenc %xmm14, %xmm0, %xmm0 vaesenc 240(%rsp), %xmm0, %xmm0 vaesenc 288(%rsp), %xmm0, %xmm0 vaesenc %xmm15, %xmm0, %xmm0 vaesenc 224(%rsp), %xmm0, %xmm0 vaesenclast 320(%rsp), %xmm0, %xmm0 vpxor 352(%rsp), %xmm0, %xmm0 xorl %eax, %eax vptest %xmm0, %xmm0 sete %al .LBB2_34: addq $480, %rsp .cfi_def_cfa_offset 32 popq %rbx .cfi_def_cfa_offset 24 popq %r14 .cfi_def_cfa_offset 16 popq %r15 .cfi_def_cfa_offset 8 retq .Lfunc_end2: .size haberdashery_aes256gcmsiv_skylake_decrypt, .Lfunc_end2-haberdashery_aes256gcmsiv_skylake_decrypt .cfi_endproc .section .text.haberdashery_aes256gcmsiv_skylake_is_supported,"ax",@progbits .globl haberdashery_aes256gcmsiv_skylake_is_supported .p2align 4, 0x90 .type haberdashery_aes256gcmsiv_skylake_is_supported,@function haberdashery_aes256gcmsiv_skylake_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $9175337, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end3: .size haberdashery_aes256gcmsiv_skylake_is_supported, .Lfunc_end3-haberdashery_aes256gcmsiv_skylake_is_supported .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
60,830
asm/aes128gcm_skylake.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI0_1: .zero 8 .quad -4467570830351532032 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_2: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_skylake_init,"ax",@progbits .globl haberdashery_aes128gcm_skylake_init .p2align 4, 0x90 .type haberdashery_aes128gcm_skylake_init,@function haberdashery_aes128gcm_skylake_init: .cfi_startproc cmpq $16, %rdx jne .LBB0_2 vmovdqu (%rsi), %xmm3 vpslldq $4, %xmm3, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vaeskeygenassist $1, %xmm3, %xmm1 vpslldq $12, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpshufd $255, %xmm1, %xmm1 vpxor %xmm3, %xmm0, %xmm0 vmovdqa %xmm3, %xmm10 vmovdqa %xmm3, -56(%rsp) vpxor %xmm0, %xmm1, %xmm1 vpslldq $4, %xmm1, %xmm0 vpslldq $8, %xmm1, %xmm2 vaeskeygenassist $2, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpslldq $12, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpshufd $255, %xmm3, %xmm2 vpxor %xmm1, %xmm0, %xmm0 vmovdqa %xmm1, -24(%rsp) vpxor %xmm0, %xmm2, %xmm2 vpslldq $4, %xmm2, %xmm0 vaeskeygenassist $4, %xmm2, %xmm3 vpslldq $8, %xmm2, %xmm4 vpxor %xmm4, %xmm0, %xmm0 vpslldq $12, %xmm2, %xmm4 vpxor %xmm4, %xmm0, %xmm0 vpshufd $255, %xmm3, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm3 vaeskeygenassist $8, %xmm3, %xmm0 vpslldq $4, %xmm3, %xmm4 vpslldq $8, %xmm3, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm3, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpshufd $255, %xmm0, %xmm0 vpxor %xmm3, %xmm4, %xmm4 vpxor %xmm4, %xmm0, %xmm4 vpslldq $4, %xmm4, %xmm0 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpslldq $12, %xmm4, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vaeskeygenassist $16, %xmm4, %xmm5 vpshufd $255, %xmm5, %xmm5 vpxor %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm5 vpslldq $4, %xmm5, %xmm0 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpslldq $12, %xmm5, %xmm6 vaeskeygenassist $32, %xmm5, %xmm7 vpxor %xmm6, %xmm0, %xmm0 vpshufd $255, %xmm7, %xmm6 vpxor %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpslldq $4, %xmm6, %xmm0 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vaeskeygenassist $64, %xmm6, %xmm7 vpslldq $12, %xmm6, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vpshufd $255, %xmm7, %xmm7 vpxor %xmm6, %xmm0, %xmm0 vpxor %xmm0, %xmm7, %xmm7 vpslldq $4, %xmm7, %xmm0 vpslldq $8, %xmm7, %xmm8 vaeskeygenassist $128, %xmm7, %xmm9 vpxor %xmm0, %xmm8, %xmm0 vpslldq $12, %xmm7, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vpshufd $255, %xmm9, %xmm8 vpxor %xmm7, %xmm0, %xmm0 vpxor %xmm0, %xmm8, %xmm8 vpslldq $4, %xmm8, %xmm0 vaeskeygenassist $27, %xmm8, %xmm9 vpslldq $8, %xmm8, %xmm11 vpxor %xmm0, %xmm11, %xmm0 vpslldq $12, %xmm8, %xmm11 vpxor %xmm0, %xmm11, %xmm0 vpshufd $255, %xmm9, %xmm9 vpxor %xmm0, %xmm8, %xmm0 vpxor %xmm0, %xmm9, %xmm9 vaeskeygenassist $54, %xmm9, %xmm0 vpslldq $4, %xmm9, %xmm11 vpslldq $8, %xmm9, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpslldq $12, %xmm9, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpshufd $255, %xmm0, %xmm0 vpxor %xmm9, %xmm11, %xmm11 vpxor %xmm0, %xmm11, %xmm11 vmovdqa %xmm11, -40(%rsp) vaesenc %xmm1, %xmm10, %xmm0 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenclast %xmm11, %xmm0, %xmm0 vpshufb .LCPI0_0(%rip), %xmm0, %xmm0 vpsrlq $63, %xmm0, %xmm11 vpaddq %xmm0, %xmm0, %xmm0 vpshufd $78, %xmm11, %xmm12 vpor %xmm0, %xmm12, %xmm0 vpxor %xmm12, %xmm12, %xmm12 vpblendd $12, %xmm11, %xmm12, %xmm11 vpsllq $63, %xmm11, %xmm12 vpxor %xmm0, %xmm12, %xmm0 vpsllq $62, %xmm11, %xmm12 vpsllq $57, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpxor %xmm0, %xmm11, %xmm11 vpclmulqdq $0, %xmm11, %xmm11, %xmm0 vpbroadcastq .LCPI0_2(%rip), %xmm13 vpclmulqdq $16, %xmm13, %xmm0, %xmm12 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm0 vpclmulqdq $16, %xmm13, %xmm0, %xmm12 vpclmulqdq $17, %xmm11, %xmm11, %xmm14 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpclmulqdq $16, %xmm11, %xmm12, %xmm0 vpclmulqdq $1, %xmm11, %xmm12, %xmm14 vpxor %xmm0, %xmm14, %xmm0 vpclmulqdq $0, %xmm11, %xmm12, %xmm14 vpslldq $8, %xmm0, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $16, %xmm13, %xmm14, %xmm15 vpshufd $78, %xmm14, %xmm14 vpxor %xmm14, %xmm15, %xmm14 vpsrldq $8, %xmm0, %xmm0 vpclmulqdq $17, %xmm11, %xmm12, %xmm15 vpxor %xmm0, %xmm15, %xmm0 vpshufd $78, %xmm14, %xmm15 vpxor %xmm0, %xmm15, %xmm0 vpclmulqdq $16, %xmm13, %xmm14, %xmm14 vpxor %xmm0, %xmm14, %xmm14 vpclmulqdq $0, %xmm14, %xmm14, %xmm0 vpclmulqdq $16, %xmm13, %xmm0, %xmm15 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm15, %xmm0 vpclmulqdq $17, %xmm14, %xmm14, %xmm15 vpshufd $78, %xmm0, %xmm10 vpxor %xmm10, %xmm15, %xmm10 vpclmulqdq $16, %xmm13, %xmm0, %xmm0 vpxor %xmm0, %xmm10, %xmm0 vmovdqa %xmm0, -72(%rsp) vpclmulqdq $0, %xmm12, %xmm12, %xmm0 vpclmulqdq $16, %xmm13, %xmm0, %xmm10 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $17, %xmm12, %xmm12, %xmm10 vpshufd $78, %xmm0, %xmm15 vpxor %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm13, %xmm0, %xmm0 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $16, %xmm11, %xmm0, %xmm10 vpclmulqdq $1, %xmm11, %xmm0, %xmm15 vpxor %xmm10, %xmm15, %xmm10 vpclmulqdq $0, %xmm11, %xmm0, %xmm15 vpslldq $8, %xmm10, %xmm1 vpxor %xmm1, %xmm15, %xmm1 vpclmulqdq $16, %xmm13, %xmm1, %xmm15 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm15, %xmm1 vpsrldq $8, %xmm10, %xmm10 vpclmulqdq $17, %xmm11, %xmm0, %xmm15 vpxor %xmm10, %xmm15, %xmm10 vpclmulqdq $16, %xmm13, %xmm1, %xmm13 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm10, %xmm1 vpxor %xmm1, %xmm13, %xmm1 vmovaps -56(%rsp), %xmm10 vmovaps %xmm10, (%rdi) vmovaps -24(%rsp), %xmm10 vmovaps %xmm10, 16(%rdi) vmovdqa %xmm2, 32(%rdi) vmovdqa %xmm3, 48(%rdi) vmovdqa %xmm4, 64(%rdi) vmovdqa %xmm5, 80(%rdi) vmovdqa %xmm6, 96(%rdi) vmovdqa %xmm7, 112(%rdi) vmovdqa %xmm8, 128(%rdi) vmovdqa %xmm9, 144(%rdi) vmovaps -40(%rsp), %xmm2 vmovaps %xmm2, 160(%rdi) vmovdqa %xmm11, 176(%rdi) vmovdqa %xmm12, 192(%rdi) vmovdqa %xmm14, 208(%rdi) vmovdqa %xmm0, 224(%rdi) vmovdqa %xmm1, 240(%rdi) vmovaps -72(%rsp), %xmm0 vmovaps %xmm0, 256(%rdi) .LBB0_2: xorl %eax, %eax cmpq $16, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes128gcm_skylake_init, .Lfunc_end0-haberdashery_aes128gcm_skylake_init .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI1_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_1: .long 1 .long 0 .long 0 .long 0 .LCPI1_2: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_3: .zero 8 .quad -4467570830351532032 .LCPI1_4: .long 2 .long 0 .long 0 .long 0 .LCPI1_5: .long 3 .long 0 .long 0 .long 0 .LCPI1_6: .long 4 .long 0 .long 0 .long 0 .LCPI1_7: .long 5 .long 0 .long 0 .long 0 .LCPI1_8: .long 6 .long 0 .long 0 .long 0 .LCPI1_9: .long 7 .long 0 .long 0 .long 0 .LCPI1_10: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_11: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_12: .zero 16 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI1_13: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_skylake_encrypt,"ax",@progbits .globl haberdashery_aes128gcm_skylake_encrypt .p2align 4, 0x90 .type haberdashery_aes128gcm_skylake_encrypt,@function haberdashery_aes128gcm_skylake_encrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $392, %rsp .cfi_def_cfa_offset 448 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 448(%rsp), %r15 xorl %eax, %eax cmpq 464(%rsp), %r15 jne .LBB1_40 cmpq $16, 480(%rsp) setne %r10b movabsq $2305843009213693950, %r11 cmpq %r11, %r8 seta %r11b orb %r10b, %r11b jne .LBB1_40 movq %r15, %r10 shrq $5, %r10 cmpq $2147483647, %r10 setae %r10b cmpq $12, %rdx setne %dl orb %r10b, %dl jne .LBB1_40 vmovd (%rsi), %xmm0 vpinsrd $1, 4(%rsi), %xmm0, %xmm0 vpinsrd $2, 8(%rsi), %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm0 vmovdqa %xmm0, 64(%rsp) vpxor %xmm13, %xmm13, %xmm13 testq %r8, %r8 je .LBB1_19 cmpq $96, %r8 jb .LBB1_5 vmovdqu (%rcx), %xmm1 vmovdqu 16(%rcx), %xmm2 vmovdqu 32(%rcx), %xmm3 vmovdqu 48(%rcx), %xmm4 vmovdqu 64(%rcx), %xmm5 vmovdqu 80(%rcx), %xmm6 vmovdqa .LCPI1_2(%rip), %xmm0 vpshufb %xmm0, %xmm1, %xmm7 vpshufb %xmm0, %xmm2, %xmm10 vpshufb %xmm0, %xmm3, %xmm8 vpshufb %xmm0, %xmm4, %xmm9 vpshufb %xmm0, %xmm5, %xmm5 vpshufb %xmm0, %xmm6, %xmm6 vmovdqa 176(%rdi), %xmm1 vmovdqa 192(%rdi), %xmm2 vmovdqa 208(%rdi), %xmm3 vmovdqa 224(%rdi), %xmm4 vpclmulqdq $0, %xmm6, %xmm1, %xmm11 vpclmulqdq $1, %xmm6, %xmm1, %xmm12 vpclmulqdq $16, %xmm6, %xmm1, %xmm13 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm6, %xmm1, %xmm6 vpclmulqdq $0, %xmm5, %xmm2, %xmm13 vpxor %xmm11, %xmm13, %xmm11 vpclmulqdq $1, %xmm5, %xmm2, %xmm13 vpclmulqdq $16, %xmm5, %xmm2, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpclmulqdq $17, %xmm5, %xmm2, %xmm5 vpxor %xmm6, %xmm5, %xmm13 vpclmulqdq $0, %xmm9, %xmm3, %xmm5 vpclmulqdq $1, %xmm9, %xmm3, %xmm6 vpclmulqdq $16, %xmm9, %xmm3, %xmm14 vpxor %xmm6, %xmm14, %xmm6 vpclmulqdq $0, %xmm8, %xmm4, %xmm14 vpxor %xmm5, %xmm14, %xmm14 vmovdqa 240(%rdi), %xmm5 vpxor %xmm14, %xmm11, %xmm11 vpclmulqdq $1, %xmm8, %xmm4, %xmm14 vpxor %xmm6, %xmm14, %xmm14 vmovdqa 256(%rdi), %xmm6 vpclmulqdq $17, %xmm9, %xmm3, %xmm9 vpxor %xmm14, %xmm12, %xmm12 vpclmulqdq $16, %xmm8, %xmm4, %xmm14 vpclmulqdq $17, %xmm8, %xmm4, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpxor %xmm8, %xmm13, %xmm13 vpclmulqdq $0, %xmm10, %xmm5, %xmm8 vpclmulqdq $1, %xmm10, %xmm5, %xmm9 vpxor %xmm9, %xmm14, %xmm9 vpclmulqdq $16, %xmm10, %xmm5, %xmm14 vpxor %xmm14, %xmm9, %xmm9 vpclmulqdq $0, %xmm7, %xmm6, %xmm14 vpxor %xmm14, %xmm8, %xmm8 vpxor %xmm8, %xmm11, %xmm8 vpclmulqdq $1, %xmm7, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpxor %xmm9, %xmm12, %xmm9 vpclmulqdq $16, %xmm7, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $17, %xmm10, %xmm5, %xmm10 vpclmulqdq $17, %xmm7, %xmm6, %xmm7 vpxor %xmm7, %xmm10, %xmm7 vpxor %xmm7, %xmm13, %xmm10 addq $96, %rcx leaq -96(%r8), %rsi cmpq $96, %rsi jb .LBB1_18 .p2align 4, 0x90 .LBB1_17: vmovdqu (%rcx), %xmm11 vmovdqu 32(%rcx), %xmm12 vmovdqu 48(%rcx), %xmm13 vmovdqu 64(%rcx), %xmm14 vmovdqu 80(%rcx), %xmm15 vpslldq $8, %xmm9, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpsrldq $8, %xmm9, %xmm8 vpxor %xmm8, %xmm10, %xmm8 vpbroadcastq .LCPI1_13(%rip), %xmm10 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpshufb %xmm0, %xmm11, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor %xmm7, %xmm9, %xmm10 vpshufb %xmm0, %xmm12, %xmm8 vpshufb %xmm0, %xmm13, %xmm7 vpshufb %xmm0, %xmm14, %xmm9 vpshufb %xmm0, %xmm15, %xmm11 vpclmulqdq $0, %xmm11, %xmm1, %xmm12 vpclmulqdq $1, %xmm11, %xmm1, %xmm13 vpclmulqdq $16, %xmm11, %xmm1, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $17, %xmm11, %xmm1, %xmm11 vpclmulqdq $0, %xmm9, %xmm2, %xmm14 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $1, %xmm9, %xmm2, %xmm14 vpclmulqdq $16, %xmm9, %xmm2, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpclmulqdq $17, %xmm9, %xmm2, %xmm9 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $0, %xmm7, %xmm3, %xmm11 vpclmulqdq $1, %xmm7, %xmm3, %xmm14 vpclmulqdq $16, %xmm7, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $0, %xmm8, %xmm4, %xmm15 vpxor %xmm15, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $1, %xmm8, %xmm4, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $17, %xmm7, %xmm3, %xmm7 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm8, %xmm4, %xmm13 vpxor %xmm7, %xmm13, %xmm7 vmovdqu 16(%rcx), %xmm13 vpshufb %xmm0, %xmm13, %xmm13 vpclmulqdq $16, %xmm8, %xmm4, %xmm8 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm13, %xmm5, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $1, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $16, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpxor %xmm8, %xmm12, %xmm11 vpclmulqdq $17, %xmm13, %xmm5, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm10, %xmm6, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $1, %xmm10, %xmm6, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $16, %xmm10, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $17, %xmm10, %xmm6, %xmm10 vpxor %xmm7, %xmm10, %xmm10 addq $96, %rcx addq $-96, %rsi cmpq $95, %rsi ja .LBB1_17 .LBB1_18: vpslldq $8, %xmm9, %xmm0 vpxor %xmm0, %xmm8, %xmm0 vpsrldq $8, %xmm9, %xmm1 vpxor %xmm1, %xmm10, %xmm1 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm13 cmpq $16, %rsi jae .LBB1_7 jmp .LBB1_12 .LBB1_19: testq %r15, %r15 jne .LBB1_24 jmp .LBB1_39 .LBB1_5: movq %r8, %rsi cmpq $16, %rsi jb .LBB1_12 .LBB1_7: vmovdqa 176(%rdi), %xmm0 leaq -16(%rsi), %rdx testb $16, %dl je .LBB1_8 cmpq $16, %rdx jae .LBB1_10 .LBB1_13: testq %rdx, %rdx je .LBB1_20 .LBB1_14: vmovdqa %xmm13, 16(%rsp) movq %r9, %r14 movq %r8, %rbx movq %rdi, %r12 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rdi movq %rcx, %rsi callq *memcpy@GOTPCREL(%rip) vmovdqa (%rsp), %xmm0 testq %r15, %r15 je .LBB1_15 movabsq $-68719476704, %rax leaq (%r15,%rax), %rcx incq %rax cmpq %rax, %rcx movl $0, %eax vmovdqa 16(%rsp), %xmm2 jb .LBB1_40 movq %r12, %rdi movq %rbx, %r8 movq %r14, %r9 vmovdqa 176(%r12), %xmm1 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm13 jmp .LBB1_24 .LBB1_8: vmovdqu (%rcx), %xmm1 addq $16, %rcx vpshufb .LCPI1_2(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpbroadcastq .LCPI1_13(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm3, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm13 movq %rdx, %rsi cmpq $16, %rdx jb .LBB1_13 .LBB1_10: vmovdqa .LCPI1_2(%rip), %xmm1 vpbroadcastq .LCPI1_13(%rip), %xmm2 .p2align 4, 0x90 .LBB1_11: vmovdqu (%rcx), %xmm3 vmovdqu 16(%rcx), %xmm4 vpshufb %xmm1, %xmm3, %xmm3 vpxor %xmm3, %xmm13, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpclmulqdq $1, %xmm3, %xmm0, %xmm6 vpclmulqdq $16, %xmm3, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $16, %xmm2, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 addq $32, %rcx addq $-32, %rsi vpshufb %xmm1, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm6, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm4 vpclmulqdq $1, %xmm3, %xmm0, %xmm5 vpclmulqdq $16, %xmm3, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm13 cmpq $15, %rsi ja .LBB1_11 .LBB1_12: movq %rsi, %rdx testq %rdx, %rdx jne .LBB1_14 .LBB1_20: testq %r15, %r15 je .LBB1_39 movabsq $-68719476704, %rcx leaq (%r15,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB1_40 .LBB1_24: movq 456(%rsp), %rdx vmovdqa 64(%rsp), %xmm0 vpshufb .LCPI1_0(%rip), %xmm0, %xmm1 vpaddd .LCPI1_1(%rip), %xmm1, %xmm15 cmpq $96, %r15 jb .LBB1_25 leaq 96(%r9), %rcx leaq 96(%rdx), %rax vmovdqa .LCPI1_2(%rip), %xmm0 vpshufb %xmm0, %xmm15, %xmm2 vpaddd .LCPI1_4(%rip), %xmm1, %xmm3 vpaddd .LCPI1_5(%rip), %xmm1, %xmm4 vpshufb %xmm0, %xmm3, %xmm3 vpshufb %xmm0, %xmm4, %xmm4 vpaddd .LCPI1_6(%rip), %xmm1, %xmm5 vpaddd .LCPI1_7(%rip), %xmm1, %xmm6 vpshufb %xmm0, %xmm5, %xmm5 vpshufb %xmm0, %xmm6, %xmm6 vpaddd .LCPI1_8(%rip), %xmm1, %xmm7 vpaddd .LCPI1_9(%rip), %xmm1, %xmm15 vpshufb %xmm0, %xmm7, %xmm7 vmovdqa (%rdi), %xmm1 vmovaps 16(%rdi), %xmm10 vmovdqa 32(%rdi), %xmm14 vmovaps 48(%rdi), %xmm8 vpxor %xmm2, %xmm1, %xmm2 vpxor %xmm3, %xmm1, %xmm3 vpxor %xmm4, %xmm1, %xmm4 vpxor %xmm5, %xmm1, %xmm5 vpxor %xmm6, %xmm1, %xmm6 vpxor %xmm7, %xmm1, %xmm9 vmovaps %xmm8, %xmm7 vmovaps %xmm10, 240(%rsp) #APP vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm10, %xmm4, %xmm4 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm10, %xmm6, %xmm6 vaesenc %xmm10, %xmm9, %xmm9 #NO_APP #APP vaesenc %xmm14, %xmm2, %xmm2 vaesenc %xmm14, %xmm3, %xmm3 vaesenc %xmm14, %xmm4, %xmm4 vaesenc %xmm14, %xmm5, %xmm5 vaesenc %xmm14, %xmm6, %xmm6 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 vaesenc %xmm8, %xmm9, %xmm9 #NO_APP vmovaps 64(%rdi), %xmm8 vmovaps %xmm8, 336(%rsp) #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 vaesenc %xmm8, %xmm9, %xmm9 #NO_APP vmovaps 80(%rdi), %xmm8 vmovaps %xmm8, 320(%rsp) #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 vaesenc %xmm8, %xmm9, %xmm9 #NO_APP vmovaps 96(%rdi), %xmm8 vmovaps %xmm8, 304(%rsp) #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 vaesenc %xmm8, %xmm9, %xmm9 #NO_APP vmovaps 112(%rdi), %xmm8 vmovaps %xmm8, 288(%rsp) #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 vaesenc %xmm8, %xmm9, %xmm9 #NO_APP vmovaps 128(%rdi), %xmm8 vmovaps %xmm8, 272(%rsp) #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 vaesenc %xmm8, %xmm9, %xmm9 #NO_APP vmovaps 144(%rdi), %xmm8 vmovaps %xmm8, 256(%rsp) #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 vaesenc %xmm8, %xmm9, %xmm9 #NO_APP vmovdqa 160(%rdi), %xmm8 vmovdqa %xmm8, %xmm12 #APP vaesenclast %xmm8, %xmm2, %xmm2 vaesenclast %xmm8, %xmm3, %xmm3 vaesenclast %xmm8, %xmm4, %xmm4 vaesenclast %xmm8, %xmm5, %xmm5 vaesenclast %xmm8, %xmm6, %xmm6 vaesenclast %xmm8, %xmm9, %xmm9 #NO_APP vpxor (%r9), %xmm2, %xmm11 vpxor 16(%r9), %xmm3, %xmm3 vpxor 32(%r9), %xmm4, %xmm4 vpxor 48(%r9), %xmm5, %xmm2 vmovdqa %xmm3, %xmm5 vpxor 64(%r9), %xmm6, %xmm8 vmovdqa %xmm4, %xmm6 vpxor 80(%r9), %xmm9, %xmm10 vmovdqu %xmm11, (%rdx) vmovdqu %xmm3, 16(%rdx) vmovdqu %xmm4, 32(%rdx) vmovdqu %xmm2, 48(%rdx) leaq -96(%r15), %rbx vmovdqu %xmm8, 64(%rdx) vmovdqu %xmm10, 80(%rdx) cmpq $96, %rbx jb .LBB1_34 vmovaps 176(%rdi), %xmm3 vmovaps %xmm3, 224(%rsp) vmovaps 192(%rdi), %xmm3 vmovaps %xmm3, 208(%rsp) vmovaps 208(%rdi), %xmm3 vmovaps %xmm3, 192(%rsp) vmovaps 224(%rdi), %xmm3 vmovaps %xmm3, 176(%rsp) vmovaps 240(%rdi), %xmm3 vmovaps %xmm3, 160(%rsp) vmovdqa 256(%rdi), %xmm3 vmovdqa %xmm3, 144(%rsp) vmovaps %xmm7, 128(%rsp) vmovdqa %xmm1, 96(%rsp) vmovdqa %xmm14, 112(%rsp) vmovdqa %xmm12, 80(%rsp) .p2align 4, 0x90 .LBB1_33: vmovdqa %xmm6, 352(%rsp) vmovdqa %xmm5, 48(%rsp) vmovdqa %xmm15, 32(%rsp) vpshufb %xmm0, %xmm15, %xmm3 vpaddd .LCPI1_1(%rip), %xmm15, %xmm4 vpshufb %xmm0, %xmm4, %xmm4 vpaddd .LCPI1_4(%rip), %xmm15, %xmm5 vpshufb %xmm0, %xmm5, %xmm5 vpaddd .LCPI1_5(%rip), %xmm15, %xmm6 vpshufb %xmm0, %xmm6, %xmm6 vpaddd .LCPI1_6(%rip), %xmm15, %xmm9 vpshufb %xmm0, %xmm9, %xmm9 vmovdqa %xmm13, %xmm1 vpaddd .LCPI1_7(%rip), %xmm15, %xmm13 vmovdqa %xmm0, %xmm12 vpshufb %xmm0, %xmm13, %xmm0 vpshufb %xmm12, %xmm11, %xmm11 vpxor %xmm1, %xmm11, %xmm1 vmovdqa %xmm1, 16(%rsp) vpshufb %xmm12, %xmm10, %xmm1 vmovdqa 96(%rsp), %xmm7 vpxor %xmm3, %xmm7, %xmm10 vpxor %xmm4, %xmm7, %xmm13 vpxor %xmm5, %xmm7, %xmm14 vpxor %xmm6, %xmm7, %xmm15 vpxor %xmm7, %xmm9, %xmm3 vpxor %xmm0, %xmm7, %xmm4 vmovaps 240(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm10, %xmm10 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 #NO_APP vpxor %xmm5, %xmm5, %xmm5 vpxor %xmm6, %xmm6, %xmm6 vpxor %xmm9, %xmm9, %xmm9 vmovaps 224(%rsp), %xmm11 vmovdqa %xmm2, %xmm7 vmovaps 112(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm13, %xmm13 vaesenc %xmm2, %xmm14, %xmm14 vaesenc %xmm2, %xmm15, %xmm15 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm4, %xmm4 vpclmulqdq $16, %xmm11, %xmm1, %xmm0 vpxor %xmm0, %xmm5, %xmm5 vpclmulqdq $0, %xmm11, %xmm1, %xmm0 vpxor %xmm0, %xmm9, %xmm9 vpclmulqdq $17, %xmm11, %xmm1, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpclmulqdq $1, %xmm11, %xmm1, %xmm0 vpxor %xmm0, %xmm5, %xmm5 #NO_APP vpshufb %xmm12, %xmm8, %xmm0 vmovaps 208(%rsp), %xmm8 vmovaps 128(%rsp), %xmm11 #APP vaesenc %xmm11, %xmm10, %xmm10 vaesenc %xmm11, %xmm13, %xmm13 vaesenc %xmm11, %xmm14, %xmm14 vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vpclmulqdq $16, %xmm8, %xmm0, %xmm1 vpxor %xmm1, %xmm5, %xmm5 vpclmulqdq $0, %xmm8, %xmm0, %xmm1 vpxor %xmm1, %xmm9, %xmm9 vpclmulqdq $17, %xmm8, %xmm0, %xmm1 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm8, %xmm0, %xmm1 vpxor %xmm1, %xmm5, %xmm5 #NO_APP vpshufb %xmm12, %xmm7, %xmm0 vmovaps 192(%rsp), %xmm2 vmovaps 336(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vpclmulqdq $16, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm5, %xmm5 vpclmulqdq $0, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm9, %xmm9 vpclmulqdq $17, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm5, %xmm5 #NO_APP vmovdqa 352(%rsp), %xmm0 vpshufb %xmm12, %xmm0, %xmm0 vmovaps 176(%rsp), %xmm2 vmovaps 320(%rsp), %xmm8 #APP vaesenc %xmm8, %xmm10, %xmm10 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vpclmulqdq $16, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm5, %xmm5 vpclmulqdq $0, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm9, %xmm9 vpclmulqdq $17, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm5, %xmm5 #NO_APP vmovdqa 48(%rsp), %xmm0 vpshufb %xmm12, %xmm0, %xmm0 vmovaps 160(%rsp), %xmm2 vmovaps 304(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vpclmulqdq $16, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm5, %xmm5 vpclmulqdq $0, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm9, %xmm9 vpclmulqdq $17, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm5, %xmm5 #NO_APP vmovaps 288(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm10, %xmm10 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 #NO_APP vmovdqa 144(%rsp), %xmm1 vmovaps 272(%rsp), %xmm2 vmovaps 16(%rsp), %xmm7 #APP vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm13, %xmm13 vaesenc %xmm2, %xmm14, %xmm14 vaesenc %xmm2, %xmm15, %xmm15 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm4, %xmm4 vpclmulqdq $16, %xmm1, %xmm7, %xmm0 vpxor %xmm0, %xmm5, %xmm5 vpclmulqdq $0, %xmm1, %xmm7, %xmm0 vpxor %xmm0, %xmm9, %xmm9 vpclmulqdq $17, %xmm1, %xmm7, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpclmulqdq $1, %xmm1, %xmm7, %xmm0 vpxor %xmm0, %xmm5, %xmm5 #NO_APP vpxor %xmm1, %xmm1, %xmm1 vpunpcklqdq %xmm5, %xmm1, %xmm0 vpxor %xmm0, %xmm9, %xmm0 vpunpckhqdq %xmm1, %xmm5, %xmm1 vpxor %xmm1, %xmm6, %xmm1 vpbroadcastq .LCPI1_13(%rip), %xmm5 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpshufd $78, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vmovaps 256(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm13, %xmm13 vaesenc %xmm2, %xmm14, %xmm14 vaesenc %xmm2, %xmm15, %xmm15 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm4, %xmm4 #NO_APP vmovaps 80(%rsp), %xmm2 #APP vaesenclast %xmm2, %xmm10, %xmm10 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm2, %xmm14, %xmm14 vaesenclast %xmm2, %xmm15, %xmm15 vaesenclast %xmm2, %xmm3, %xmm3 vaesenclast %xmm2, %xmm4, %xmm4 #NO_APP vpclmulqdq $16, %xmm5, %xmm0, %xmm0 vpxor (%rcx), %xmm10, %xmm11 vpxor 16(%rcx), %xmm13, %xmm5 vpxor 32(%rcx), %xmm14, %xmm6 vpxor 48(%rcx), %xmm15, %xmm2 vmovdqa 32(%rsp), %xmm15 vpxor 64(%rcx), %xmm3, %xmm8 vpxor 80(%rcx), %xmm4, %xmm10 vpxor %xmm0, %xmm1, %xmm13 vmovdqa %xmm12, %xmm0 addq $96, %rcx vmovdqu %xmm11, (%rax) vmovdqu %xmm5, 16(%rax) vmovdqu %xmm6, 32(%rax) vmovdqu %xmm2, 48(%rax) vmovdqu %xmm8, 64(%rax) vmovdqu %xmm10, 80(%rax) addq $96, %rax addq $-96, %rbx vpaddd .LCPI1_8(%rip), %xmm15, %xmm15 cmpq $95, %rbx ja .LBB1_33 .LBB1_34: vpshufb %xmm0, %xmm11, %xmm1 vpxor %xmm1, %xmm13, %xmm1 vpshufb %xmm0, %xmm5, %xmm3 vpshufb %xmm0, %xmm6, %xmm4 vpshufb %xmm0, %xmm2, %xmm5 vpshufb %xmm0, %xmm8, %xmm6 vpshufb %xmm0, %xmm10, %xmm7 vmovdqa 176(%rdi), %xmm8 vmovdqa 192(%rdi), %xmm9 vmovdqa 208(%rdi), %xmm10 vmovdqa 224(%rdi), %xmm11 vmovdqa 240(%rdi), %xmm2 vmovdqa 256(%rdi), %xmm0 vpclmulqdq $0, %xmm7, %xmm8, %xmm12 vpclmulqdq $1, %xmm7, %xmm8, %xmm13 vpclmulqdq $16, %xmm7, %xmm8, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $17, %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm6, %xmm9, %xmm8 vpxor %xmm12, %xmm8, %xmm8 vpclmulqdq $1, %xmm6, %xmm9, %xmm12 vpclmulqdq $16, %xmm6, %xmm9, %xmm14 vpxor %xmm14, %xmm12, %xmm12 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm6, %xmm9, %xmm6 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm10, %xmm7 vpclmulqdq $1, %xmm5, %xmm10, %xmm9 vpclmulqdq $16, %xmm5, %xmm10, %xmm13 vpxor %xmm13, %xmm9, %xmm9 vpclmulqdq $17, %xmm5, %xmm10, %xmm5 vpclmulqdq $0, %xmm4, %xmm11, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $1, %xmm4, %xmm11, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpxor %xmm8, %xmm12, %xmm8 vpclmulqdq $16, %xmm4, %xmm11, %xmm9 vpclmulqdq $17, %xmm4, %xmm11, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $0, %xmm3, %xmm2, %xmm5 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $1, %xmm3, %xmm2, %xmm6 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $16, %xmm3, %xmm2, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm3, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $0, %xmm1, %xmm0, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $1, %xmm1, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm1, %xmm0, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpslldq $8, %xmm4, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpsrldq $8, %xmm4, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm2, %xmm0, %xmm13 movq %rax, %rdx movq %rcx, %r9 cmpq $16, %rbx jae .LBB1_35 .LBB1_27: movq %rdx, %r14 movq %r9, %rsi jmp .LBB1_28 .LBB1_25: movq %r15, %rbx cmpq $16, %rbx jb .LBB1_27 .LBB1_35: vmovaps (%rdi), %xmm0 vmovaps %xmm0, 32(%rsp) vmovaps 16(%rdi), %xmm0 vmovaps %xmm0, 16(%rsp) vmovdqa 32(%rdi), %xmm0 vmovdqa %xmm0, 48(%rsp) vmovdqa 48(%rdi), %xmm3 vmovdqa 64(%rdi), %xmm4 vmovdqa 80(%rdi), %xmm5 vmovdqa 96(%rdi), %xmm6 vmovdqa 112(%rdi), %xmm7 vmovdqa 128(%rdi), %xmm8 vmovdqa 144(%rdi), %xmm9 vmovdqa 160(%rdi), %xmm10 vmovdqa 176(%rdi), %xmm11 vmovdqa .LCPI1_2(%rip), %xmm12 vpbroadcastq .LCPI1_13(%rip), %xmm14 .p2align 4, 0x90 .LBB1_36: vmovdqa %xmm15, %xmm2 vpshufb %xmm12, %xmm15, %xmm15 vpxor 32(%rsp), %xmm15, %xmm15 vaesenc 16(%rsp), %xmm15, %xmm15 vaesenc 48(%rsp), %xmm15, %xmm15 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm5, %xmm15, %xmm15 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm9, %xmm15, %xmm15 vaesenclast %xmm10, %xmm15, %xmm15 vpxor (%r9), %xmm15, %xmm15 vmovdqu %xmm15, (%rdx) vpshufb %xmm12, %xmm15, %xmm15 vpxor %xmm15, %xmm13, %xmm15 vpclmulqdq $0, %xmm15, %xmm11, %xmm13 vpclmulqdq $1, %xmm15, %xmm11, %xmm0 vpclmulqdq $16, %xmm15, %xmm11, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm0, %xmm1 vpxor %xmm1, %xmm13, %xmm1 vpclmulqdq $17, %xmm15, %xmm11, %xmm13 vpsrldq $8, %xmm0, %xmm0 vpxor %xmm0, %xmm13, %xmm0 vpclmulqdq $16, %xmm14, %xmm1, %xmm13 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm1 vpshufd $78, %xmm1, %xmm13 vpxor %xmm0, %xmm13, %xmm0 vpclmulqdq $16, %xmm14, %xmm1, %xmm1 vpxor %xmm0, %xmm1, %xmm13 leaq 16(%r9), %rsi leaq 16(%rdx), %r14 addq $-16, %rbx vpaddd .LCPI1_1(%rip), %xmm2, %xmm15 movq %r14, %rdx movq %rsi, %r9 cmpq $15, %rbx ja .LBB1_36 .LBB1_28: testq %rbx, %rbx je .LBB1_39 vmovdqa %xmm13, 16(%rsp) movq %r8, 48(%rsp) vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rax movq memcpy@GOTPCREL(%rip), %rbp movq %rdi, %r13 movq %rax, %rdi movq %rbx, %rdx vmovdqa %xmm15, 32(%rsp) callq *%rbp vmovdqa 32(%rsp), %xmm0 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor (%r13), %xmm0, %xmm0 vaesenc 16(%r13), %xmm0, %xmm0 vaesenc 32(%r13), %xmm0, %xmm0 vaesenc 48(%r13), %xmm0, %xmm0 vaesenc 64(%r13), %xmm0, %xmm0 vaesenc 80(%r13), %xmm0, %xmm0 vaesenc 96(%r13), %xmm0, %xmm0 vaesenc 112(%r13), %xmm0, %xmm0 vaesenc 128(%r13), %xmm0, %xmm0 vaesenc 144(%r13), %xmm0, %xmm0 movq %r13, %r12 vaesenclast 160(%r13), %xmm0, %xmm0 vpxor (%rsp), %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) vmovdqa %xmm0, (%rsp) movq %rsp, %rsi movq %r14, %rdi movq %rbx, %rdx callq *%rbp testq %r15, %r15 je .LBB1_30 vmovaps 32(%rsp), %xmm0 vmovaps %xmm0, 368(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) movq %rsp, %rdi leaq 368(%rsp), %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) vmovdqa (%rsp), %xmm0 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 movq %r12, %rdi vmovdqa 176(%r12), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 jmp .LBB1_38 .LBB1_15: movq %r12, %rdi vmovdqa 176(%r12), %xmm1 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm13 movq %rbx, %r8 jmp .LBB1_39 .LBB1_30: movq %r12, %rdi vmovdqa 176(%r12), %xmm0 vmovdqa 32(%rsp), %xmm1 vpshufb .LCPI1_2(%rip), %xmm1, %xmm1 vpxor 16(%rsp), %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 .LBB1_38: vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm13 movq 48(%rsp), %r8 .LBB1_39: movq 472(%rsp), %rax vmovdqa 176(%rdi), %xmm0 vmovq %r8, %xmm1 vmovq %r15, %xmm2 vpunpcklqdq %xmm1, %xmm2, %xmm1 vpsllq $3, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vmovdqa 64(%rsp), %xmm2 vpxor (%rdi), %xmm2, %xmm2 vaesenc 16(%rdi), %xmm2, %xmm2 vaesenc 32(%rdi), %xmm2, %xmm2 vaesenc 48(%rdi), %xmm2, %xmm2 vaesenc 64(%rdi), %xmm2, %xmm2 vaesenc 80(%rdi), %xmm2, %xmm2 vaesenc 96(%rdi), %xmm2, %xmm2 vaesenc 112(%rdi), %xmm2, %xmm2 vaesenc 128(%rdi), %xmm2, %xmm2 vaesenc 144(%rdi), %xmm2, %xmm2 vaesenclast 160(%rdi), %xmm2, %xmm2 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpshufb .LCPI1_10(%rip), %xmm3, %xmm3 vpshufb .LCPI1_11(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqu %xmm0, (%rax) movl $1, %eax .LBB1_40: addq $392, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end1: .size haberdashery_aes128gcm_skylake_encrypt, .Lfunc_end1-haberdashery_aes128gcm_skylake_encrypt .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_1: .long 1 .long 0 .long 0 .long 0 .LCPI2_2: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_3: .zero 8 .quad -4467570830351532032 .LCPI2_4: .long 2 .long 0 .long 0 .long 0 .LCPI2_5: .long 3 .long 0 .long 0 .long 0 .LCPI2_6: .long 4 .long 0 .long 0 .long 0 .LCPI2_7: .long 5 .long 0 .long 0 .long 0 .LCPI2_8: .long 6 .long 0 .long 0 .long 0 .LCPI2_9: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI2_10: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI2_11: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_skylake_decrypt,"ax",@progbits .globl haberdashery_aes128gcm_skylake_decrypt .p2align 4, 0x90 .type haberdashery_aes128gcm_skylake_decrypt,@function haberdashery_aes128gcm_skylake_decrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $424, %rsp .cfi_def_cfa_offset 480 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 480(%rsp), %r15 xorl %eax, %eax cmpq 512(%rsp), %r15 jne .LBB2_38 cmpq $16, 496(%rsp) setne %r10b movabsq $2305843009213693950, %r11 cmpq %r11, %r8 seta %r11b movq %r15, %rbx shrq $5, %rbx cmpq $2147483647, %rbx setae %bl orb %r10b, %r11b orb %bl, %r11b cmpq $12, %rdx setne %dl orb %r11b, %dl jne .LBB2_38 movq 488(%rsp), %r12 vmovd (%rsi), %xmm0 vpinsrd $1, 4(%rsi), %xmm0, %xmm0 vpinsrd $2, 8(%rsi), %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm0 vmovdqa %xmm0, 80(%rsp) vpxor %xmm12, %xmm12, %xmm12 testq %r8, %r8 je .LBB2_3 cmpq $96, %r8 jb .LBB2_6 vmovdqu (%rcx), %xmm1 vmovdqu 16(%rcx), %xmm2 vmovdqu 32(%rcx), %xmm3 vmovdqu 48(%rcx), %xmm4 vmovdqu 64(%rcx), %xmm5 vmovdqu 80(%rcx), %xmm6 vmovdqa .LCPI2_2(%rip), %xmm0 vpshufb %xmm0, %xmm1, %xmm7 vpshufb %xmm0, %xmm2, %xmm10 vpshufb %xmm0, %xmm3, %xmm8 vpshufb %xmm0, %xmm4, %xmm9 vpshufb %xmm0, %xmm5, %xmm5 vpshufb %xmm0, %xmm6, %xmm6 vmovdqa 176(%rdi), %xmm1 vmovdqa 192(%rdi), %xmm2 vmovdqa 208(%rdi), %xmm3 vmovdqa 224(%rdi), %xmm4 vpclmulqdq $0, %xmm6, %xmm1, %xmm11 vpclmulqdq $1, %xmm6, %xmm1, %xmm12 vpclmulqdq $16, %xmm6, %xmm1, %xmm13 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm6, %xmm1, %xmm6 vpclmulqdq $0, %xmm5, %xmm2, %xmm13 vpxor %xmm11, %xmm13, %xmm11 vpclmulqdq $1, %xmm5, %xmm2, %xmm13 vpclmulqdq $16, %xmm5, %xmm2, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpclmulqdq $17, %xmm5, %xmm2, %xmm5 vpxor %xmm6, %xmm5, %xmm13 vpclmulqdq $0, %xmm9, %xmm3, %xmm5 vpclmulqdq $1, %xmm9, %xmm3, %xmm6 vpclmulqdq $16, %xmm9, %xmm3, %xmm14 vpxor %xmm6, %xmm14, %xmm6 vpclmulqdq $0, %xmm8, %xmm4, %xmm14 vpxor %xmm5, %xmm14, %xmm14 vmovdqa 240(%rdi), %xmm5 vpxor %xmm14, %xmm11, %xmm11 vpclmulqdq $1, %xmm8, %xmm4, %xmm14 vpxor %xmm6, %xmm14, %xmm14 vmovdqa 256(%rdi), %xmm6 vpclmulqdq $17, %xmm9, %xmm3, %xmm9 vpxor %xmm14, %xmm12, %xmm12 vpclmulqdq $16, %xmm8, %xmm4, %xmm14 vpclmulqdq $17, %xmm8, %xmm4, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpxor %xmm8, %xmm13, %xmm13 vpclmulqdq $0, %xmm10, %xmm5, %xmm8 vpclmulqdq $1, %xmm10, %xmm5, %xmm9 vpxor %xmm9, %xmm14, %xmm9 vpclmulqdq $16, %xmm10, %xmm5, %xmm14 vpxor %xmm14, %xmm9, %xmm9 vpclmulqdq $0, %xmm7, %xmm6, %xmm14 vpxor %xmm14, %xmm8, %xmm8 vpxor %xmm8, %xmm11, %xmm8 vpclmulqdq $1, %xmm7, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpxor %xmm9, %xmm12, %xmm9 vpclmulqdq $16, %xmm7, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $17, %xmm10, %xmm5, %xmm10 vpclmulqdq $17, %xmm7, %xmm6, %xmm7 vpxor %xmm7, %xmm10, %xmm7 vpxor %xmm7, %xmm13, %xmm10 addq $96, %rcx leaq -96(%r8), %rsi cmpq $96, %rsi jb .LBB2_15 .p2align 4, 0x90 .LBB2_14: vmovdqu (%rcx), %xmm11 vmovdqu 32(%rcx), %xmm12 vmovdqu 48(%rcx), %xmm13 vmovdqu 64(%rcx), %xmm14 vmovdqu 80(%rcx), %xmm15 vpslldq $8, %xmm9, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpsrldq $8, %xmm9, %xmm8 vpxor %xmm8, %xmm10, %xmm8 vpbroadcastq .LCPI2_11(%rip), %xmm10 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpshufb %xmm0, %xmm11, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor %xmm7, %xmm9, %xmm10 vpshufb %xmm0, %xmm12, %xmm8 vpshufb %xmm0, %xmm13, %xmm7 vpshufb %xmm0, %xmm14, %xmm9 vpshufb %xmm0, %xmm15, %xmm11 vpclmulqdq $0, %xmm11, %xmm1, %xmm12 vpclmulqdq $1, %xmm11, %xmm1, %xmm13 vpclmulqdq $16, %xmm11, %xmm1, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $17, %xmm11, %xmm1, %xmm11 vpclmulqdq $0, %xmm9, %xmm2, %xmm14 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $1, %xmm9, %xmm2, %xmm14 vpclmulqdq $16, %xmm9, %xmm2, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpclmulqdq $17, %xmm9, %xmm2, %xmm9 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $0, %xmm7, %xmm3, %xmm11 vpclmulqdq $1, %xmm7, %xmm3, %xmm14 vpclmulqdq $16, %xmm7, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $0, %xmm8, %xmm4, %xmm15 vpxor %xmm15, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $1, %xmm8, %xmm4, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $17, %xmm7, %xmm3, %xmm7 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm8, %xmm4, %xmm13 vpxor %xmm7, %xmm13, %xmm7 vmovdqu 16(%rcx), %xmm13 vpshufb %xmm0, %xmm13, %xmm13 vpclmulqdq $16, %xmm8, %xmm4, %xmm8 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm13, %xmm5, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $1, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $16, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpxor %xmm8, %xmm12, %xmm11 vpclmulqdq $17, %xmm13, %xmm5, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm10, %xmm6, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $1, %xmm10, %xmm6, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $16, %xmm10, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $17, %xmm10, %xmm6, %xmm10 vpxor %xmm7, %xmm10, %xmm10 addq $96, %rcx addq $-96, %rsi cmpq $95, %rsi ja .LBB2_14 .LBB2_15: vpslldq $8, %xmm9, %xmm0 vpxor %xmm0, %xmm8, %xmm0 vpsrldq $8, %xmm9, %xmm1 vpxor %xmm1, %xmm10, %xmm1 vpbroadcastq .LCPI2_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm12 cmpq $16, %rsi jae .LBB2_16 jmp .LBB2_8 .LBB2_6: movq %r8, %rsi cmpq $16, %rsi jb .LBB2_8 .LBB2_16: vmovdqa 176(%rdi), %xmm0 leaq -16(%rsi), %rdx testb $16, %dl je .LBB2_17 cmpq $16, %rdx jae .LBB2_19 .LBB2_9: testq %rdx, %rdx je .LBB2_3 .LBB2_10: vmovdqa %xmm12, 16(%rsp) movq %r9, %r14 movq %r8, %rbx movq %rdi, %r13 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) leaq 32(%rsp), %rdi movq %rcx, %rsi callq *memcpy@GOTPCREL(%rip) vmovdqa 32(%rsp), %xmm0 testq %r15, %r15 je .LBB2_11 movabsq $-68719476704, %rax leaq (%r15,%rax), %rcx incq %rax cmpq %rax, %rcx movl $0, %eax vmovdqa 16(%rsp), %xmm2 jb .LBB2_38 movq %r13, %rdi movq %rbx, %r8 movq %r14, %r9 vmovdqa 176(%r13), %xmm1 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI2_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm12 jmp .LBB2_23 .LBB2_17: vmovdqu (%rcx), %xmm1 addq $16, %rcx vpshufb .LCPI2_2(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpbroadcastq .LCPI2_11(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm3, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm12 movq %rdx, %rsi cmpq $16, %rdx jb .LBB2_9 .LBB2_19: vmovdqa .LCPI2_2(%rip), %xmm1 vpbroadcastq .LCPI2_11(%rip), %xmm2 .p2align 4, 0x90 .LBB2_20: vmovdqu (%rcx), %xmm3 vmovdqu 16(%rcx), %xmm4 vpshufb %xmm1, %xmm3, %xmm3 vpxor %xmm3, %xmm12, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpclmulqdq $1, %xmm3, %xmm0, %xmm6 vpclmulqdq $16, %xmm3, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $16, %xmm2, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 addq $32, %rcx addq $-32, %rsi vpshufb %xmm1, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm6, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm4 vpclmulqdq $1, %xmm3, %xmm0, %xmm5 vpclmulqdq $16, %xmm3, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm12 cmpq $15, %rsi ja .LBB2_20 .LBB2_8: movq %rsi, %rdx testq %rdx, %rdx jne .LBB2_10 .LBB2_3: testq %r15, %r15 je .LBB2_12 movabsq $-68719476704, %rcx leaq (%r15,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB2_38 .LBB2_23: movq 504(%rsp), %rax vmovdqa 80(%rsp), %xmm0 vpshufb .LCPI2_0(%rip), %xmm0, %xmm0 vpaddd .LCPI2_1(%rip), %xmm0, %xmm14 cmpq $96, %r15 jb .LBB2_24 vmovaps (%rdi), %xmm0 vmovaps %xmm0, 96(%rsp) vmovaps 16(%rdi), %xmm0 vmovaps %xmm0, 352(%rsp) vmovaps 32(%rdi), %xmm0 vmovaps %xmm0, 336(%rsp) vmovaps 48(%rdi), %xmm0 vmovaps %xmm0, 320(%rsp) vmovaps 64(%rdi), %xmm0 vmovaps %xmm0, 304(%rsp) vmovaps 80(%rdi), %xmm0 vmovaps %xmm0, 288(%rsp) vmovaps 96(%rdi), %xmm0 vmovaps %xmm0, 272(%rsp) vmovaps 112(%rdi), %xmm0 vmovaps %xmm0, 256(%rsp) vmovaps 128(%rdi), %xmm0 vmovaps %xmm0, 240(%rsp) vmovaps 144(%rdi), %xmm0 vmovaps %xmm0, 224(%rsp) vmovaps 160(%rdi), %xmm0 vmovaps %xmm0, 208(%rsp) vmovaps 176(%rdi), %xmm0 vmovaps %xmm0, 192(%rsp) vmovaps 192(%rdi), %xmm0 vmovaps %xmm0, 176(%rsp) vmovaps 208(%rdi), %xmm0 vmovaps %xmm0, 160(%rsp) vmovaps 224(%rdi), %xmm0 vmovaps %xmm0, 144(%rsp) vmovaps 240(%rdi), %xmm0 vmovaps %xmm0, 128(%rsp) movq %r15, %rbx vmovdqa 256(%rdi), %xmm0 vmovdqa %xmm0, 112(%rsp) .p2align 4, 0x90 .LBB2_28: vmovdqa %xmm14, (%rsp) vmovdqu (%r9), %xmm9 vmovdqa %xmm9, 48(%rsp) vmovups 32(%r9), %xmm0 vmovaps %xmm0, 16(%rsp) vmovdqu 48(%r9), %xmm7 vmovdqu 64(%r9), %xmm6 vmovdqa %xmm6, 384(%rsp) vmovdqu 80(%r9), %xmm8 vmovdqa %xmm8, 64(%rsp) vmovdqa .LCPI2_2(%rip), %xmm2 vpshufb %xmm2, %xmm14, %xmm0 vpaddd .LCPI2_1(%rip), %xmm14, %xmm1 vpshufb %xmm2, %xmm1, %xmm1 vpaddd .LCPI2_4(%rip), %xmm14, %xmm3 vpshufb %xmm2, %xmm3, %xmm3 vpaddd .LCPI2_5(%rip), %xmm14, %xmm4 vpshufb %xmm2, %xmm4, %xmm4 vpaddd .LCPI2_6(%rip), %xmm14, %xmm10 vpshufb %xmm2, %xmm10, %xmm10 vpaddd .LCPI2_7(%rip), %xmm14, %xmm11 vpshufb %xmm2, %xmm11, %xmm5 vpshufb %xmm2, %xmm9, %xmm11 vpxor %xmm11, %xmm12, %xmm9 vmovdqa %xmm9, 368(%rsp) vpshufb %xmm2, %xmm8, %xmm9 vmovdqa 96(%rsp), %xmm8 vpxor %xmm0, %xmm8, %xmm11 vpxor %xmm1, %xmm8, %xmm12 vpxor %xmm3, %xmm8, %xmm13 vpxor %xmm4, %xmm8, %xmm14 vpxor %xmm10, %xmm8, %xmm15 vpxor %xmm5, %xmm8, %xmm10 vmovaps 352(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm12, %xmm12 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm10, %xmm10 #NO_APP vpxor %xmm3, %xmm3, %xmm3 vpxor %xmm4, %xmm4, %xmm4 vxorps %xmm0, %xmm0, %xmm0 vmovaps 336(%rsp), %xmm5 vmovaps 192(%rsp), %xmm8 #APP vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm5, %xmm12, %xmm12 vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm5, %xmm14, %xmm14 vaesenc %xmm5, %xmm15, %xmm15 vaesenc %xmm5, %xmm10, %xmm10 vpclmulqdq $16, %xmm8, %xmm9, %xmm1 vpxor %xmm1, %xmm3, %xmm3 vpclmulqdq $0, %xmm8, %xmm9, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $17, %xmm8, %xmm9, %xmm1 vpxor %xmm1, %xmm4, %xmm4 vpclmulqdq $1, %xmm8, %xmm9, %xmm1 vpxor %xmm1, %xmm3, %xmm3 #NO_APP vpshufb %xmm2, %xmm6, %xmm1 vmovaps 320(%rsp), %xmm6 vmovaps 176(%rsp), %xmm8 #APP vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm14, %xmm14 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm6, %xmm10, %xmm10 vpclmulqdq $16, %xmm8, %xmm1, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $0, %xmm8, %xmm1, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpclmulqdq $17, %xmm8, %xmm1, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $1, %xmm8, %xmm1, %xmm5 vpxor %xmm5, %xmm3, %xmm3 #NO_APP vpshufb %xmm2, %xmm7, %xmm1 vmovaps 304(%rsp), %xmm6 vmovaps 160(%rsp), %xmm8 #APP vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm14, %xmm14 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm6, %xmm10, %xmm10 vpclmulqdq $16, %xmm8, %xmm1, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $0, %xmm8, %xmm1, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpclmulqdq $17, %xmm8, %xmm1, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $1, %xmm8, %xmm1, %xmm5 vpxor %xmm5, %xmm3, %xmm3 #NO_APP vmovdqa 16(%rsp), %xmm1 vpshufb %xmm2, %xmm1, %xmm1 vmovaps 288(%rsp), %xmm6 vmovaps 144(%rsp), %xmm8 #APP vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm14, %xmm14 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm6, %xmm10, %xmm10 vpclmulqdq $16, %xmm8, %xmm1, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $0, %xmm8, %xmm1, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpclmulqdq $17, %xmm8, %xmm1, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $1, %xmm8, %xmm1, %xmm5 vpxor %xmm5, %xmm3, %xmm3 #NO_APP vmovdqu 16(%r9), %xmm1 vpshufb %xmm2, %xmm1, %xmm5 vmovaps 272(%rsp), %xmm8 vmovaps 128(%rsp), %xmm9 #APP vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm10, %xmm10 vpclmulqdq $16, %xmm9, %xmm5, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpclmulqdq $0, %xmm9, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $17, %xmm9, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $1, %xmm9, %xmm5, %xmm6 vpxor %xmm6, %xmm3, %xmm3 #NO_APP vmovaps 256(%rsp), %xmm5 #APP vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm5, %xmm12, %xmm12 vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm5, %xmm14, %xmm14 vaesenc %xmm5, %xmm15, %xmm15 vaesenc %xmm5, %xmm10, %xmm10 #NO_APP vmovdqa 240(%rsp), %xmm6 vmovaps 112(%rsp), %xmm8 vmovdqa 368(%rsp), %xmm2 #APP vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm14, %xmm14 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm6, %xmm10, %xmm10 vpclmulqdq $16, %xmm8, %xmm2, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $0, %xmm8, %xmm2, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpclmulqdq $17, %xmm8, %xmm2, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $1, %xmm8, %xmm2, %xmm5 vpxor %xmm5, %xmm3, %xmm3 #NO_APP vpxor %xmm6, %xmm6, %xmm6 vpunpcklqdq %xmm3, %xmm6, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpunpckhqdq %xmm6, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpbroadcastq .LCPI2_11(%rip), %xmm9 vpclmulqdq $16, %xmm9, %xmm0, %xmm4 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm4, %xmm0 vpshufd $78, %xmm0, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vmovaps 224(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm10, %xmm10 #NO_APP vmovaps 208(%rsp), %xmm4 #APP vaesenclast %xmm4, %xmm11, %xmm11 vaesenclast %xmm4, %xmm12, %xmm12 vaesenclast %xmm4, %xmm13, %xmm13 vaesenclast %xmm4, %xmm14, %xmm14 vaesenclast %xmm4, %xmm15, %xmm15 vaesenclast %xmm4, %xmm10, %xmm10 #NO_APP vpxor 48(%rsp), %xmm11, %xmm4 vpxor %xmm1, %xmm12, %xmm1 vpxor 16(%rsp), %xmm13, %xmm5 vpxor %xmm7, %xmm14, %xmm6 vmovdqa (%rsp), %xmm14 vpxor 384(%rsp), %xmm15, %xmm8 vmovdqu %xmm4, (%rax) vmovdqu %xmm1, 16(%rax) vmovdqu %xmm5, 32(%rax) vmovdqu %xmm6, 48(%rax) vpxor 64(%rsp), %xmm10, %xmm1 vmovdqu %xmm8, 64(%rax) vmovdqu %xmm1, 80(%rax) vpclmulqdq $16, %xmm9, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm12 addq $96, %r9 addq $96, %rax addq $-96, %rbx vpaddd .LCPI2_8(%rip), %xmm14, %xmm14 cmpq $95, %rbx ja .LBB2_28 vmovdqa %xmm12, %xmm1 cmpq $16, %rbx jb .LBB2_26 .LBB2_29: vmovdqa 176(%rdi), %xmm0 vmovaps (%rdi), %xmm2 vmovaps %xmm2, 16(%rsp) vmovaps 16(%rdi), %xmm2 vmovaps %xmm2, (%rsp) vmovaps 32(%rdi), %xmm2 vmovaps %xmm2, 64(%rsp) vmovdqa 48(%rdi), %xmm2 vmovdqa %xmm2, 48(%rsp) vmovdqa 64(%rdi), %xmm5 vmovdqa 80(%rdi), %xmm6 vmovdqa 96(%rdi), %xmm7 vmovdqa 112(%rdi), %xmm8 vmovdqa 128(%rdi), %xmm9 vmovdqa 144(%rdi), %xmm10 movq %rdi, %r13 vmovdqa 160(%rdi), %xmm11 vmovdqa .LCPI2_2(%rip), %xmm12 vpbroadcastq .LCPI2_11(%rip), %xmm13 .p2align 4, 0x90 .LBB2_30: vmovdqu (%r9), %xmm15 vmovdqa %xmm14, %xmm4 vpshufb %xmm12, %xmm15, %xmm14 vpxor %xmm1, %xmm14, %xmm14 vpclmulqdq $0, %xmm14, %xmm0, %xmm1 vpclmulqdq $1, %xmm14, %xmm0, %xmm2 vpclmulqdq $16, %xmm14, %xmm0, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $17, %xmm14, %xmm0, %xmm3 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm13, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpshufd $78, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpshufb %xmm12, %xmm4, %xmm3 vpxor 16(%rsp), %xmm3, %xmm3 vaesenc (%rsp), %xmm3, %xmm3 vaesenc 64(%rsp), %xmm3, %xmm3 vaesenc 48(%rsp), %xmm3, %xmm3 vaesenc %xmm5, %xmm3, %xmm3 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm10, %xmm3, %xmm3 vaesenclast %xmm11, %xmm3, %xmm3 vpxor %xmm3, %xmm15, %xmm3 vmovdqu %xmm3, (%rax) vpclmulqdq $16, %xmm13, %xmm1, %xmm1 vpxor %xmm2, %xmm1, %xmm1 leaq 16(%rax), %r14 addq $-16, %rbx addq $16, %r9 vpaddd .LCPI2_1(%rip), %xmm4, %xmm14 movq %r14, %rax cmpq $15, %rbx ja .LBB2_30 jmp .LBB2_31 .LBB2_24: movq %r15, %rbx vmovdqa %xmm12, %xmm1 cmpq $16, %rbx jae .LBB2_29 .LBB2_26: movq %rdi, %r13 movq %rax, %r14 .LBB2_31: vmovdqa %xmm1, 16(%rsp) movq %r8, %rbp vpxor %xmm1, %xmm1, %xmm1 vpxor %xmm2, %xmm2, %xmm2 testq %rbx, %rbx je .LBB2_33 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) leaq 32(%rsp), %rdi movq memcpy@GOTPCREL(%rip), %r12 movq %r9, %rsi movq %rbx, %rdx vmovdqa %xmm14, (%rsp) callq *%r12 vmovdqa (%rsp), %xmm0 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor (%r13), %xmm0, %xmm0 vaesenc 16(%r13), %xmm0, %xmm0 vaesenc 32(%r13), %xmm0, %xmm0 vaesenc 48(%r13), %xmm0, %xmm0 vaesenc 64(%r13), %xmm0, %xmm0 vaesenc 80(%r13), %xmm0, %xmm0 vaesenc 96(%r13), %xmm0, %xmm0 vaesenc 112(%r13), %xmm0, %xmm0 vaesenc 128(%r13), %xmm0, %xmm0 vaesenc 144(%r13), %xmm0, %xmm0 vmovdqa 32(%rsp), %xmm1 vmovdqa %xmm1, (%rsp) vaesenclast 160(%r13), %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) leaq 32(%rsp), %rsi movq %r14, %rdi movq %rbx, %rdx callq *%r12 vmovdqa (%rsp), %xmm2 vpxor %xmm1, %xmm1, %xmm1 movq 488(%rsp), %r12 .LBB2_33: vmovdqu (%r12), %xmm0 vmovdqa %xmm0, (%rsp) vmovdqa %xmm2, 400(%rsp) vmovdqa %xmm1, 32(%rsp) leaq 32(%rsp), %rdi leaq 400(%rsp), %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) testq %rbx, %rbx je .LBB2_34 vmovdqa 32(%rsp), %xmm0 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 movq %r13, %rdi vmovdqa 176(%r13), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI2_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm12 movq %rbp, %r8 jmp .LBB2_36 .LBB2_11: movq %r13, %rdi vmovdqa 176(%r13), %xmm1 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI2_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm12 movq %rbx, %r8 .LBB2_12: vmovdqu (%r12), %xmm5 jmp .LBB2_37 .LBB2_34: movq %r13, %rdi movq %rbp, %r8 vmovdqa 16(%rsp), %xmm12 .LBB2_36: vmovdqa (%rsp), %xmm5 .LBB2_37: vmovdqa 176(%rdi), %xmm0 vmovq %r8, %xmm1 vmovq %r15, %xmm2 vpunpcklqdq %xmm1, %xmm2, %xmm1 vpsllq $3, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI2_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vmovdqa 80(%rsp), %xmm2 vpxor (%rdi), %xmm2, %xmm2 vaesenc 16(%rdi), %xmm2, %xmm2 vaesenc 32(%rdi), %xmm2, %xmm2 vaesenc 48(%rdi), %xmm2, %xmm2 vaesenc 64(%rdi), %xmm2, %xmm2 vaesenc 80(%rdi), %xmm2, %xmm2 vaesenc 96(%rdi), %xmm2, %xmm2 vaesenc 112(%rdi), %xmm2, %xmm2 vaesenc 128(%rdi), %xmm2, %xmm2 vaesenc 144(%rdi), %xmm2, %xmm2 vaesenclast 160(%rdi), %xmm2, %xmm2 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpshufb .LCPI2_9(%rip), %xmm3, %xmm3 vpshufb .LCPI2_10(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpxor %xmm1, %xmm5, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm0 xorl %eax, %eax vptest %xmm0, %xmm0 sete %al .LBB2_38: addq $424, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end2: .size haberdashery_aes128gcm_skylake_decrypt, .Lfunc_end2-haberdashery_aes128gcm_skylake_decrypt .cfi_endproc .section .text.haberdashery_aes128gcm_skylake_is_supported,"ax",@progbits .globl haberdashery_aes128gcm_skylake_is_supported .p2align 4, 0x90 .type haberdashery_aes128gcm_skylake_is_supported,@function haberdashery_aes128gcm_skylake_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $9175337, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end3: .size haberdashery_aes128gcm_skylake_is_supported, .Lfunc_end3-haberdashery_aes128gcm_skylake_is_supported .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
65,592
asm/aes128gcm_streaming_haswell.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI0_1: .zero 8 .quad -4467570830351532032 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_2: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_streaming_haswell_init_key,"ax",@progbits .globl haberdashery_aes128gcm_streaming_haswell_init_key .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_haswell_init_key,@function haberdashery_aes128gcm_streaming_haswell_init_key: .cfi_startproc cmpq $16, %rdx jne .LBB0_2 vmovdqu (%rsi), %xmm0 vpslldq $4, %xmm0, %xmm1 vpslldq $8, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vaeskeygenassist $1, %xmm0, %xmm2 vpslldq $12, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpshufd $255, %xmm2, %xmm2 vpxor %xmm0, %xmm1, %xmm1 vmovdqa %xmm0, %xmm13 vmovdqa %xmm0, -88(%rsp) vpxor %xmm1, %xmm2, %xmm0 vpslldq $4, %xmm0, %xmm2 vpslldq $8, %xmm0, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpslldq $12, %xmm0, %xmm3 vaeskeygenassist $2, %xmm0, %xmm4 vpxor %xmm3, %xmm2, %xmm2 vpshufd $255, %xmm4, %xmm3 vpxor %xmm0, %xmm2, %xmm2 vmovdqa %xmm0, %xmm1 vmovdqa %xmm0, -24(%rsp) vpxor %xmm2, %xmm3, %xmm0 vpslldq $4, %xmm0, %xmm3 vpslldq $8, %xmm0, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpslldq $12, %xmm0, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vaeskeygenassist $4, %xmm0, %xmm4 vpshufd $255, %xmm4, %xmm4 vpxor %xmm0, %xmm3, %xmm3 vmovdqa %xmm0, %xmm2 vmovdqa %xmm0, -40(%rsp) vpxor %xmm3, %xmm4, %xmm0 vpslldq $4, %xmm0, %xmm4 vpslldq $8, %xmm0, %xmm5 vaeskeygenassist $8, %xmm0, %xmm6 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm0, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpshufd $255, %xmm6, %xmm5 vpxor %xmm0, %xmm4, %xmm4 vmovdqa %xmm0, -56(%rsp) vpxor %xmm4, %xmm5, %xmm4 vpslldq $4, %xmm4, %xmm5 vpslldq $8, %xmm4, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vaeskeygenassist $16, %xmm4, %xmm6 vpslldq $12, %xmm4, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpshufd $255, %xmm6, %xmm6 vpxor %xmm4, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpslldq $4, %xmm5, %xmm6 vpslldq $8, %xmm5, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpslldq $12, %xmm5, %xmm7 vaeskeygenassist $32, %xmm5, %xmm8 vpxor %xmm7, %xmm6, %xmm6 vpshufd $255, %xmm8, %xmm7 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm6 vpslldq $4, %xmm6, %xmm7 vpslldq $8, %xmm6, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpslldq $12, %xmm6, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vaeskeygenassist $64, %xmm6, %xmm8 vpshufd $255, %xmm8, %xmm8 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpslldq $4, %xmm7, %xmm8 vpslldq $8, %xmm7, %xmm9 vaeskeygenassist $128, %xmm7, %xmm10 vpxor %xmm9, %xmm8, %xmm8 vpslldq $12, %xmm7, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpshufd $255, %xmm10, %xmm9 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpslldq $4, %xmm8, %xmm9 vpslldq $8, %xmm8, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vaeskeygenassist $27, %xmm8, %xmm10 vpslldq $12, %xmm8, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpshufd $255, %xmm10, %xmm10 vpxor %xmm8, %xmm9, %xmm9 vpxor %xmm9, %xmm10, %xmm9 vpslldq $4, %xmm9, %xmm10 vpslldq $8, %xmm9, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpslldq $12, %xmm9, %xmm11 vaeskeygenassist $54, %xmm9, %xmm12 vpxor %xmm11, %xmm10, %xmm10 vpshufd $255, %xmm12, %xmm11 vpxor %xmm9, %xmm10, %xmm10 vpxor %xmm10, %xmm11, %xmm3 vmovdqa %xmm3, -72(%rsp) vaesenc %xmm1, %xmm13, %xmm11 vaesenc %xmm2, %xmm11, %xmm11 vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm9, %xmm11, %xmm11 vaesenclast %xmm3, %xmm11, %xmm11 vpshufb .LCPI0_0(%rip), %xmm11, %xmm11 vpsrlq $63, %xmm11, %xmm12 vpaddq %xmm11, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm13 vpor %xmm13, %xmm11, %xmm11 vpxor %xmm13, %xmm13, %xmm13 vpblendd $12, %xmm12, %xmm13, %xmm12 vpsllq $63, %xmm12, %xmm13 vpxor %xmm13, %xmm11, %xmm11 vpsllq $62, %xmm12, %xmm13 vpsllq $57, %xmm12, %xmm12 vpxor %xmm12, %xmm13, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpclmulqdq $0, %xmm11, %xmm11, %xmm12 vpbroadcastq .LCPI0_2(%rip), %xmm13 vpclmulqdq $16, %xmm13, %xmm12, %xmm14 vpshufd $78, %xmm12, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $16, %xmm13, %xmm12, %xmm14 vpclmulqdq $17, %xmm11, %xmm11, %xmm15 vpshufd $78, %xmm12, %xmm12 vpxor %xmm12, %xmm15, %xmm12 vpxor %xmm14, %xmm12, %xmm12 vpclmulqdq $16, %xmm11, %xmm12, %xmm14 vpclmulqdq $1, %xmm11, %xmm12, %xmm15 vpxor %xmm14, %xmm15, %xmm14 vpclmulqdq $0, %xmm11, %xmm12, %xmm15 vpslldq $8, %xmm14, %xmm10 vpxor %xmm10, %xmm15, %xmm10 vpclmulqdq $16, %xmm13, %xmm10, %xmm15 vpshufd $78, %xmm10, %xmm10 vpclmulqdq $17, %xmm11, %xmm12, %xmm0 vpxor %xmm10, %xmm15, %xmm10 vpsrldq $8, %xmm14, %xmm14 vpxor %xmm0, %xmm14, %xmm0 vpshufd $78, %xmm10, %xmm14 vpxor %xmm0, %xmm14, %xmm0 vpclmulqdq $16, %xmm13, %xmm10, %xmm10 vpxor %xmm0, %xmm10, %xmm14 vpclmulqdq $0, %xmm14, %xmm14, %xmm0 vpclmulqdq $16, %xmm13, %xmm0, %xmm10 vpclmulqdq $0, %xmm12, %xmm12, %xmm15 vpclmulqdq $16, %xmm13, %xmm15, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm10, %xmm0 vpshufd $78, %xmm15, %xmm10 vpxor %xmm1, %xmm10, %xmm1 vpclmulqdq $17, %xmm12, %xmm12, %xmm10 vpshufd $78, %xmm1, %xmm15 vpxor %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm13, %xmm1, %xmm1 vpxor %xmm1, %xmm10, %xmm15 vpclmulqdq $17, %xmm14, %xmm14, %xmm2 vpshufd $78, %xmm0, %xmm10 vpclmulqdq $16, %xmm11, %xmm15, %xmm1 vpxor %xmm2, %xmm10, %xmm2 vpclmulqdq $1, %xmm11, %xmm15, %xmm10 vpxor %xmm1, %xmm10, %xmm1 vpclmulqdq $16, %xmm13, %xmm0, %xmm0 vpclmulqdq $0, %xmm11, %xmm15, %xmm10 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm10, %xmm3 vpclmulqdq $16, %xmm13, %xmm3, %xmm10 vpxor %xmm0, %xmm2, %xmm0 vpshufd $78, %xmm3, %xmm2 vpxor %xmm2, %xmm10, %xmm2 vpsrldq $8, %xmm1, %xmm1 vpclmulqdq $17, %xmm11, %xmm15, %xmm3 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm13, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm3, %xmm1, %xmm1 vmovaps -88(%rsp), %xmm2 vmovaps %xmm2, (%rdi) vmovaps -24(%rsp), %xmm2 vmovaps %xmm2, 16(%rdi) vmovaps -40(%rsp), %xmm2 vmovaps %xmm2, 32(%rdi) vmovaps -56(%rsp), %xmm2 vmovaps %xmm2, 48(%rdi) vmovdqa %xmm4, 64(%rdi) vmovdqa %xmm5, 80(%rdi) vmovdqa %xmm6, 96(%rdi) vmovdqa %xmm7, 112(%rdi) vmovdqa %xmm8, 128(%rdi) vmovdqa %xmm9, 144(%rdi) vmovaps -72(%rsp), %xmm2 vmovaps %xmm2, 160(%rdi) vmovdqa %xmm11, 176(%rdi) vmovdqa %xmm12, 192(%rdi) vmovdqa %xmm14, 208(%rdi) vmovdqa %xmm15, 224(%rdi) vmovdqa %xmm1, 240(%rdi) vmovdqa %xmm0, 256(%rdi) .LBB0_2: xorl %eax, %eax cmpq $16, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes128gcm_streaming_haswell_init_key, .Lfunc_end0-haberdashery_aes128gcm_streaming_haswell_init_key .cfi_endproc .section .text.haberdashery_aes128gcm_streaming_haswell_is_supported,"ax",@progbits .globl haberdashery_aes128gcm_streaming_haswell_is_supported .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_haswell_is_supported,@function haberdashery_aes128gcm_streaming_haswell_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $297, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end1: .size haberdashery_aes128gcm_streaming_haswell_is_supported, .Lfunc_end1-haberdashery_aes128gcm_streaming_haswell_is_supported .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_1: .long 1 .long 0 .long 0 .long 0 .section .text.haberdashery_aes128gcm_streaming_haswell_init_state,"ax",@progbits .globl haberdashery_aes128gcm_streaming_haswell_init_state .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_haswell_init_state,@function haberdashery_aes128gcm_streaming_haswell_init_state: .cfi_startproc cmpq $12, %rcx jne .LBB2_2 vmovd (%rdx), %xmm0 vpinsrd $1, 4(%rdx), %xmm0, %xmm0 vpinsrd $2, 8(%rdx), %xmm0, %xmm0 movl $16777216, %eax vpinsrd $3, %eax, %xmm0, %xmm0 vpshufb .LCPI2_0(%rip), %xmm0, %xmm1 vpaddd .LCPI2_1(%rip), %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmovups %ymm2, -56(%rsp) vmovups %ymm2, -88(%rsp) movq $0, -24(%rsp) vxorps %xmm2, %xmm2, %xmm2 vmovaps %xmm2, (%rdi) vmovdqa %xmm0, 16(%rdi) vmovdqa %xmm1, 32(%rdi) vmovups -56(%rsp), %ymm0 vmovups -40(%rsp), %xmm1 movq -24(%rsp), %rax movq -16(%rsp), %rdx vmovups %ymm0, 48(%rdi) vmovups %xmm1, 64(%rdi) movq %rax, 80(%rdi) movq %rdx, 88(%rdi) vmovaps %xmm2, 96(%rdi) .LBB2_2: xorl %eax, %eax cmpq $12, %rcx sete %al vzeroupper retq .Lfunc_end2: .size haberdashery_aes128gcm_streaming_haswell_init_state, .Lfunc_end2-haberdashery_aes128gcm_streaming_haswell_init_state .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI3_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI3_1: .zero 8 .quad -4467570830351532032 .LCPI3_2: .zero 16 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI3_3: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_streaming_haswell_aad_update,"ax",@progbits .globl haberdashery_aes128gcm_streaming_haswell_aad_update .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_haswell_aad_update,@function haberdashery_aes128gcm_streaming_haswell_aad_update: .cfi_startproc movabsq $-2305843009213693951, %rax leaq (%rcx,%rax), %r8 incq %rax cmpq %rax, %r8 jae .LBB3_3 xorl %eax, %eax retq .LBB3_3: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $72, %rsp .cfi_def_cfa_offset 128 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 96(%rdi), %r14 addq %rcx, %r14 xorl %eax, %eax movabsq $2305843009213693950, %r8 cmpq %r8, %r14 ja .LBB3_27 cmpq $0, 104(%rdi) jne .LBB3_27 movq 80(%rdi), %r8 testq %r8, %r8 je .LBB3_6 leaq (%r8,%rcx), %rbx cmpq $15, %rbx ja .LBB3_9 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%r8), %rax movq %rdi, %r15 movq %rax, %rdi movq %rdx, %rsi movq %rcx, %rdx movq %rcx, %r12 callq *memcpy@GOTPCREL(%rip) movq %r15, %rdi movq %r12, %rcx vmovdqa 64(%r15), %xmm0 vpxor (%rsp), %xmm0, %xmm0 jmp .LBB3_25 .LBB3_6: movq %rcx, %rbx cmpq $96, %rbx jae .LBB3_11 jmp .LBB3_15 .LBB3_9: vmovaps 64(%rdi), %xmm0 vmovaps %xmm0, (%rsp) movl $16, %eax subq %r8, %rax addq %rsp, %r8 leaq (%rdx,%rax), %r15 movq %rcx, %rbx subq %rax, %rbx movq %rdi, %r12 movq %r8, %rdi movq %rsi, %r13 movq %rdx, %rsi movq %rax, %rdx movq %rcx, %rbp callq *memcpy@GOTPCREL(%rip) movq %r13, %rsi movq %r12, %rdi movq %rbp, %rcx movq $0, 80(%r12) vmovdqa (%rsp), %xmm0 vpshufb .LCPI3_0(%rip), %xmm0, %xmm0 vpxor (%r12), %xmm0, %xmm0 vmovdqa 176(%r13), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpxor %xmm3, %xmm4, %xmm1 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpbroadcastq .LCPI3_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpshufd $78, %xmm2, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%r12) movq %r15, %rdx cmpq $96, %rbx jb .LBB3_15 .LBB3_11: vmovdqu 16(%rdx), %xmm1 vmovdqu 32(%rdx), %xmm2 vmovdqu 48(%rdx), %xmm3 vmovdqu 64(%rdx), %xmm4 vmovdqu 80(%rdx), %xmm5 vmovdqa .LCPI3_0(%rip), %xmm11 vpshufb %xmm11, %xmm1, %xmm7 vpshufb %xmm11, %xmm2, %xmm6 vpshufb %xmm11, %xmm5, %xmm5 vmovdqa 176(%rsi), %xmm2 vpclmulqdq $0, %xmm5, %xmm2, %xmm8 vpshufb %xmm11, %xmm3, %xmm9 vpclmulqdq $1, %xmm5, %xmm2, %xmm10 vpshufb %xmm11, %xmm4, %xmm0 vpclmulqdq $16, %xmm5, %xmm2, %xmm4 vmovdqa 192(%rsi), %xmm3 vpclmulqdq $17, %xmm5, %xmm2, %xmm5 vmovdqa 208(%rsi), %xmm15 vpclmulqdq $0, %xmm0, %xmm3, %xmm12 vpxor %xmm4, %xmm10, %xmm10 vpclmulqdq $1, %xmm0, %xmm3, %xmm13 vpxor %xmm8, %xmm12, %xmm8 vpclmulqdq $16, %xmm0, %xmm3, %xmm12 vmovdqa 224(%rsi), %xmm4 vpclmulqdq $17, %xmm0, %xmm3, %xmm0 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $0, %xmm9, %xmm15, %xmm13 vpxor %xmm12, %xmm10, %xmm10 vpclmulqdq $1, %xmm9, %xmm15, %xmm12 vpxor %xmm5, %xmm0, %xmm0 vpclmulqdq $16, %xmm9, %xmm15, %xmm5 vpxor %xmm5, %xmm12, %xmm5 vpclmulqdq $17, %xmm9, %xmm15, %xmm9 vpclmulqdq $0, %xmm6, %xmm4, %xmm12 vpxor %xmm12, %xmm13, %xmm12 vpxor %xmm12, %xmm8, %xmm8 vpclmulqdq $1, %xmm6, %xmm4, %xmm12 vpxor %xmm5, %xmm12, %xmm12 vpclmulqdq $16, %xmm6, %xmm4, %xmm13 vmovdqa 240(%rsi), %xmm5 vpclmulqdq $17, %xmm6, %xmm4, %xmm6 vpxor %xmm12, %xmm10, %xmm10 vpclmulqdq $0, %xmm7, %xmm5, %xmm12 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $1, %xmm7, %xmm5, %xmm9 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $16, %xmm7, %xmm5, %xmm6 vpxor %xmm12, %xmm8, %xmm8 vpxor %xmm9, %xmm13, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vmovdqu (%rdx), %xmm9 vpshufb %xmm11, %xmm9, %xmm9 vpxor (%rdi), %xmm9, %xmm12 vpxor %xmm6, %xmm10, %xmm10 vmovdqa 256(%rsi), %xmm6 vpclmulqdq $17, %xmm7, %xmm5, %xmm7 vpxor %xmm7, %xmm0, %xmm7 vpclmulqdq $0, %xmm12, %xmm6, %xmm9 vpxor %xmm9, %xmm8, %xmm9 vpclmulqdq $1, %xmm12, %xmm6, %xmm8 vpxor %xmm8, %xmm10, %xmm8 vpclmulqdq $16, %xmm12, %xmm6, %xmm10 vpxor %xmm10, %xmm8, %xmm10 vpclmulqdq $17, %xmm12, %xmm6, %xmm8 vpxor %xmm7, %xmm8, %xmm8 addq $96, %rdx addq $-96, %rbx cmpq $96, %rbx jb .LBB3_14 vmovdqa %xmm2, 32(%rsp) vmovdqa %xmm3, 16(%rsp) .p2align 4, 0x90 .LBB3_13: vmovdqu (%rdx), %xmm12 vmovdqu 32(%rdx), %xmm13 vmovups 48(%rdx), %xmm0 vmovaps %xmm0, 48(%rsp) vmovdqu 64(%rdx), %xmm14 vmovdqa %xmm6, %xmm3 vmovdqa %xmm5, %xmm6 vmovdqa %xmm4, %xmm5 vmovdqa %xmm15, %xmm4 vmovdqu 80(%rdx), %xmm15 vpslldq $8, %xmm10, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpsrldq $8, %xmm10, %xmm9 vpbroadcastq .LCPI3_3(%rip), %xmm1 vpclmulqdq $16, %xmm1, %xmm7, %xmm10 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $16, %xmm1, %xmm7, %xmm10 vpxor %xmm9, %xmm8, %xmm8 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpshufb %xmm11, %xmm12, %xmm8 vpshufb %xmm11, %xmm15, %xmm12 vmovdqa 32(%rsp), %xmm0 vpclmulqdq $0, %xmm12, %xmm0, %xmm15 vpxor %xmm7, %xmm8, %xmm7 vmovdqa %xmm11, %xmm1 vpclmulqdq $1, %xmm12, %xmm0, %xmm11 vpxor %xmm7, %xmm10, %xmm8 vpclmulqdq $16, %xmm12, %xmm0, %xmm7 vpshufb %xmm1, %xmm13, %xmm9 vpclmulqdq $17, %xmm12, %xmm0, %xmm10 vpshufb %xmm1, %xmm14, %xmm12 vmovdqa 16(%rsp), %xmm0 vpclmulqdq $0, %xmm12, %xmm0, %xmm13 vpxor %xmm7, %xmm11, %xmm2 vpclmulqdq $1, %xmm12, %xmm0, %xmm7 vpxor %xmm15, %xmm13, %xmm13 vmovdqa %xmm4, %xmm15 vmovdqa %xmm5, %xmm4 vmovdqa %xmm6, %xmm5 vmovdqa %xmm3, %xmm6 vpclmulqdq $16, %xmm12, %xmm0, %xmm14 vmovdqa 48(%rsp), %xmm3 vpshufb %xmm1, %xmm3, %xmm11 vpclmulqdq $17, %xmm12, %xmm0, %xmm12 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $0, %xmm11, %xmm15, %xmm14 vpxor %xmm7, %xmm2, %xmm0 vpclmulqdq $1, %xmm11, %xmm15, %xmm7 vpxor %xmm10, %xmm12, %xmm10 vpclmulqdq $16, %xmm11, %xmm15, %xmm12 vpxor %xmm7, %xmm12, %xmm7 vpclmulqdq $0, %xmm9, %xmm4, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $17, %xmm11, %xmm15, %xmm11 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $1, %xmm9, %xmm4, %xmm13 vpxor %xmm7, %xmm13, %xmm7 vpclmulqdq $17, %xmm9, %xmm4, %xmm13 vpxor %xmm7, %xmm0, %xmm0 vpxor %xmm13, %xmm11, %xmm7 vmovdqu 16(%rdx), %xmm11 vpshufb %xmm1, %xmm11, %xmm11 vpclmulqdq $16, %xmm9, %xmm4, %xmm9 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $0, %xmm11, %xmm5, %xmm10 vpxor %xmm10, %xmm12, %xmm10 vpclmulqdq $1, %xmm11, %xmm5, %xmm12 vpxor %xmm12, %xmm9, %xmm9 vpclmulqdq $16, %xmm11, %xmm5, %xmm12 vpxor %xmm12, %xmm9, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $17, %xmm11, %xmm5, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm8, %xmm6, %xmm9 vpxor %xmm9, %xmm10, %xmm9 vpclmulqdq $1, %xmm8, %xmm6, %xmm10 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $16, %xmm8, %xmm6, %xmm10 vpxor %xmm0, %xmm10, %xmm10 vpclmulqdq $17, %xmm8, %xmm6, %xmm0 vpxor %xmm0, %xmm7, %xmm8 vmovdqa %xmm1, %xmm11 addq $96, %rdx addq $-96, %rbx cmpq $95, %rbx ja .LBB3_13 .LBB3_14: vpslldq $8, %xmm10, %xmm0 vpxor %xmm0, %xmm9, %xmm0 vpbroadcastq .LCPI3_3(%rip), %xmm1 vpclmulqdq $16, %xmm1, %xmm0, %xmm2 vpsrldq $8, %xmm10, %xmm3 vpxor %xmm3, %xmm8, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $16, %xmm1, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vmovdqa %xmm0, (%rdi) .LBB3_15: cmpq $16, %rbx jae .LBB3_16 testq %rbx, %rbx jne .LBB3_24 jmp .LBB3_26 .LBB3_16: vmovdqa (%rdi), %xmm1 vmovdqa 176(%rsi), %xmm0 leaq -16(%rbx), %rax testb $16, %al jne .LBB3_18 vmovdqu (%rdx), %xmm2 vpshufb .LCPI3_0(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpbroadcastq .LCPI3_3(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 addq $16, %rdx vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpsrldq $8, %xmm3, %xmm3 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpxor %xmm3, %xmm1, %xmm1 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 movq %rax, %rbx .LBB3_18: cmpq $16, %rax jb .LBB3_22 vmovdqa .LCPI3_0(%rip), %xmm2 vpbroadcastq .LCPI3_3(%rip), %xmm3 .p2align 4, 0x90 .LBB3_20: vmovdqu (%rdx), %xmm4 vpshufb %xmm2, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vmovdqu 16(%rdx), %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm7 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm5, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpshufb %xmm2, %xmm6, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 addq $32, %rdx vpclmulqdq $1, %xmm1, %xmm0, %xmm5 addq $-32, %rbx vpclmulqdq $16, %xmm1, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm1 cmpq $15, %rbx ja .LBB3_20 movq %rbx, %rax .LBB3_22: vmovdqa %xmm1, (%rdi) movq %rax, %rbx testq %rbx, %rbx je .LBB3_26 .LBB3_24: vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rax movq %rdi, %r15 movq %rax, %rdi movq %rdx, %rsi movq %rbx, %rdx movq %rcx, %r12 callq *memcpy@GOTPCREL(%rip) movq %r15, %rdi movq %r12, %rcx vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 48(%r15) vmovdqa (%rsp), %xmm0 .LBB3_25: vmovdqa %xmm0, 64(%r15) movq %rbx, 80(%r15) .LBB3_26: movq %r14, 96(%rdi) movq %rcx, %rax .LBB3_27: addq $72, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp retq .Lfunc_end3: .size haberdashery_aes128gcm_streaming_haswell_aad_update, .Lfunc_end3-haberdashery_aes128gcm_streaming_haswell_aad_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI4_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI4_1: .zero 8 .quad -4467570830351532032 .LCPI4_2: .long 1 .long 0 .long 0 .long 0 .LCPI4_3: .long 2 .long 0 .long 0 .long 0 .LCPI4_4: .long 3 .long 0 .long 0 .long 0 .LCPI4_5: .long 4 .long 0 .long 0 .long 0 .LCPI4_6: .long 5 .long 0 .long 0 .long 0 .LCPI4_7: .long 6 .long 0 .long 0 .long 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI4_8: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_streaming_haswell_encrypt_update,"ax",@progbits .globl haberdashery_aes128gcm_streaming_haswell_encrypt_update .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_haswell_encrypt_update,@function haberdashery_aes128gcm_streaming_haswell_encrypt_update: .cfi_startproc cmpq %r9, %rcx jne .LBB4_3 movq %rcx, %rax movabsq $-68719476704, %rcx leaq (%rax,%rcx), %r9 incq %rcx cmpq %rcx, %r9 jb .LBB4_3 movq 104(%rdi), %rcx leaq (%rcx,%rax), %r11 movq %r11, %r9 shrq $5, %r9 cmpq $2147483646, %r9 jbe .LBB4_6 .LBB4_3: xorl %eax, %eax retq .LBB4_6: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $440, %rsp .cfi_def_cfa_offset 496 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 testq %rcx, %rcx setne %r9b movq 80(%rdi), %rcx testq %rcx, %rcx sete %r10b orb %r9b, %r10b je .LBB4_10 testq %rcx, %rcx je .LBB4_11 movq %r11, 32(%rsp) movq %rdi, %rbp leaq (%rcx,%rax), %rbx cmpq $15, %rbx ja .LBB4_12 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r14 movq memcpy@GOTPCREL(%rip), %r13 movq %r14, %rdi movq %rdx, %rsi movq %rax, %rdx movq %rax, %r15 movq %r8, %r12 callq *%r13 vmovdqa (%rsp), %xmm0 vpxor 64(%rbp), %xmm0, %xmm0 vmovdqa %xmm0, 64(%rbp) vmovdqa %xmm0, (%rsp) movq %r12, %rdi movq %r14, %rsi movq %r15, %r12 movq %r15, %rdx callq *%r13 movq %rbp, %rdi jmp .LBB4_24 .LBB4_10: vmovdqa 64(%rdi), %xmm0 vpshufb .LCPI4_0(%rip), %xmm0, %xmm0 vpxor (%rdi), %xmm0, %xmm0 vmovdqa 176(%rsi), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpxor %xmm3, %xmm4, %xmm1 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpbroadcastq .LCPI4_8(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpshufd $78, %xmm2, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rdi) vpxor %xmm0, %xmm0, %xmm0 vmovdqu %ymm0, 48(%rdi) movq $0, 80(%rdi) .LBB4_11: movq %rax, %rbx cmpq $96, %rbx jb .LBB4_14 .LBB4_16: vmovups (%rdx), %xmm0 vmovaps %xmm0, 32(%rsp) vmovups 16(%rdx), %xmm0 vmovaps %xmm0, 16(%rsp) vmovdqu 32(%rdx), %xmm2 vmovdqu 48(%rdx), %xmm4 vmovdqu 64(%rdx), %xmm5 vmovdqu 80(%rdx), %xmm6 vmovdqa 32(%rdi), %xmm1 vmovdqa .LCPI4_0(%rip), %xmm8 vpaddd .LCPI4_2(%rip), %xmm1, %xmm7 vpshufb %xmm8, %xmm1, %xmm9 vpshufb %xmm8, %xmm7, %xmm10 vpaddd .LCPI4_3(%rip), %xmm1, %xmm7 vpshufb %xmm8, %xmm7, %xmm11 vpaddd .LCPI4_4(%rip), %xmm1, %xmm7 vpshufb %xmm8, %xmm7, %xmm12 vpaddd .LCPI4_5(%rip), %xmm1, %xmm7 vpaddd .LCPI4_6(%rip), %xmm1, %xmm13 vpshufb %xmm8, %xmm7, %xmm14 vpshufb %xmm8, %xmm13, %xmm15 vpaddd .LCPI4_7(%rip), %xmm1, %xmm1 vmovdqa %xmm1, 32(%rdi) vmovdqa (%rsi), %xmm3 vmovaps 16(%rsi), %xmm0 vmovdqa 32(%rsi), %xmm1 vpxor %xmm3, %xmm9, %xmm7 vpxor %xmm3, %xmm10, %xmm10 vpxor %xmm3, %xmm11, %xmm11 vpxor %xmm3, %xmm12, %xmm12 vpxor %xmm3, %xmm14, %xmm13 vpxor %xmm3, %xmm15, %xmm9 vmovaps %xmm0, 352(%rsp) #APP vaesenc %xmm0, %xmm7, %xmm7 vaesenc %xmm0, %xmm10, %xmm10 vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm12, %xmm12 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm9, %xmm9 #NO_APP vmovdqa %xmm1, %xmm0 #APP vaesenc %xmm1, %xmm7, %xmm7 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm9, %xmm9 #NO_APP vmovdqa 48(%rsi), %xmm1 #APP vaesenc %xmm1, %xmm7, %xmm7 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm9, %xmm9 #NO_APP vmovaps 64(%rsi), %xmm14 vmovaps %xmm14, 336(%rsp) #APP vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 vaesenc %xmm14, %xmm13, %xmm13 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovaps 80(%rsi), %xmm14 vmovaps %xmm14, 320(%rsp) #APP vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 vaesenc %xmm14, %xmm13, %xmm13 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovaps 96(%rsi), %xmm14 vmovaps %xmm14, 304(%rsp) #APP vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 vaesenc %xmm14, %xmm13, %xmm13 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovaps 112(%rsi), %xmm14 vmovaps %xmm14, 288(%rsp) #APP vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 vaesenc %xmm14, %xmm13, %xmm13 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovaps 128(%rsi), %xmm14 vmovaps %xmm14, 272(%rsp) #APP vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 vaesenc %xmm14, %xmm13, %xmm13 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovaps 144(%rsi), %xmm14 vmovaps %xmm14, 256(%rsp) #APP vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 vaesenc %xmm14, %xmm13, %xmm13 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovaps 160(%rsi), %xmm14 vmovaps %xmm14, 240(%rsp) #APP vaesenclast %xmm14, %xmm7, %xmm7 vaesenclast %xmm14, %xmm10, %xmm10 vaesenclast %xmm14, %xmm11, %xmm11 vaesenclast %xmm14, %xmm12, %xmm12 vaesenclast %xmm14, %xmm13, %xmm13 vaesenclast %xmm14, %xmm9, %xmm9 #NO_APP vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm5, %xmm13, %xmm14 vpxor %xmm4, %xmm12, %xmm13 vpxor %xmm2, %xmm11, %xmm2 vpxor 16(%rsp), %xmm10, %xmm4 vmovdqa %xmm2, %xmm10 vpxor 32(%rsp), %xmm7, %xmm11 addq $96, %rdx leaq 96(%r8), %rcx addq $-96, %rbx vmovdqu %xmm11, (%r8) vmovdqu %xmm4, 16(%r8) vmovdqu %xmm2, 32(%r8) vmovdqu %xmm13, 48(%r8) vmovdqu %xmm14, 64(%r8) vmovdqu %xmm9, 80(%r8) vmovdqa (%rdi), %xmm2 cmpq $96, %rbx jb .LBB4_19 vmovaps 176(%rsi), %xmm5 vmovaps %xmm5, 224(%rsp) vmovaps 192(%rsi), %xmm5 vmovaps %xmm5, 208(%rsp) vmovaps 208(%rsi), %xmm5 vmovaps %xmm5, 192(%rsp) vmovaps 224(%rsi), %xmm5 vmovaps %xmm5, 176(%rsp) vmovaps 240(%rsi), %xmm5 vmovaps %xmm5, 160(%rsp) vmovdqa 256(%rsi), %xmm5 vmovdqa %xmm5, 144(%rsp) vmovdqa %xmm3, 128(%rsp) vmovdqa %xmm0, 112(%rsp) vmovdqa %xmm1, 96(%rsp) vmovdqa 112(%rsp), %xmm15 .p2align 4, 0x90 .LBB4_18: vmovdqa %xmm10, 368(%rsp) vmovdqa %xmm4, 384(%rsp) vmovups (%rdx), %xmm0 vmovaps %xmm0, 32(%rsp) vmovups 16(%rdx), %xmm0 vmovaps %xmm0, 16(%rsp) vmovups 32(%rdx), %xmm0 vmovaps %xmm0, 48(%rsp) vmovups 48(%rdx), %xmm0 vmovaps %xmm0, 80(%rsp) vmovups 64(%rdx), %xmm0 vmovaps %xmm0, 64(%rsp) vmovups 80(%rdx), %xmm0 vmovaps %xmm0, 416(%rsp) vmovdqa 32(%rdi), %xmm0 vpaddd .LCPI4_2(%rip), %xmm0, %xmm3 vpshufb %xmm8, %xmm3, %xmm4 vpaddd .LCPI4_7(%rip), %xmm0, %xmm3 vmovdqa %xmm3, 32(%rdi) vpaddd .LCPI4_3(%rip), %xmm0, %xmm3 vpshufb %xmm8, %xmm3, %xmm5 vpshufb %xmm8, %xmm11, %xmm3 vpxor %xmm3, %xmm2, %xmm1 vmovdqa %xmm1, 400(%rsp) vpaddd .LCPI4_4(%rip), %xmm0, %xmm2 vpshufb %xmm8, %xmm2, %xmm6 vpaddd .LCPI4_5(%rip), %xmm0, %xmm2 vpshufb %xmm8, %xmm2, %xmm7 vpshufb %xmm8, %xmm0, %xmm2 vpaddd .LCPI4_6(%rip), %xmm0, %xmm0 vmovdqa %xmm8, %xmm3 vpshufb %xmm8, %xmm0, %xmm8 vpshufb %xmm3, %xmm9, %xmm1 vmovdqa 128(%rsp), %xmm9 vpxor %xmm2, %xmm9, %xmm2 vpxor %xmm4, %xmm9, %xmm11 vpxor %xmm5, %xmm9, %xmm10 vpxor %xmm6, %xmm9, %xmm0 vpxor %xmm7, %xmm9, %xmm4 vpxor %xmm8, %xmm9, %xmm9 vmovaps 352(%rsp), %xmm5 #APP vaesenc %xmm5, %xmm2, %xmm2 vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm5, %xmm10, %xmm10 vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm5, %xmm4, %xmm4 vaesenc %xmm5, %xmm9, %xmm9 #NO_APP vxorps %xmm5, %xmm5, %xmm5 vpxor %xmm6, %xmm6, %xmm6 vpxor %xmm7, %xmm7, %xmm7 vmovdqa %xmm14, %xmm12 vmovaps 224(%rsp), %xmm14 #APP vaesenc %xmm15, %xmm2, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm0, %xmm0 vaesenc %xmm15, %xmm4, %xmm4 vaesenc %xmm15, %xmm9, %xmm9 vpclmulqdq $16, %xmm14, %xmm1, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $0, %xmm14, %xmm1, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm14, %xmm1, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $1, %xmm14, %xmm1, %xmm8 vpxor %xmm5, %xmm8, %xmm5 #NO_APP vpshufb %xmm3, %xmm12, %xmm1 vmovaps 208(%rsp), %xmm12 vmovaps 96(%rsp), %xmm14 #APP vaesenc %xmm14, %xmm2, %xmm2 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm0, %xmm0 vaesenc %xmm14, %xmm4, %xmm4 vaesenc %xmm14, %xmm9, %xmm9 vpclmulqdq $16, %xmm12, %xmm1, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $0, %xmm12, %xmm1, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm12, %xmm1, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $1, %xmm12, %xmm1, %xmm8 vpxor %xmm5, %xmm8, %xmm5 #NO_APP vpshufb %xmm3, %xmm13, %xmm1 vmovaps 192(%rsp), %xmm12 vmovaps 336(%rsp), %xmm13 #APP vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm13, %xmm11, %xmm11 vaesenc %xmm13, %xmm10, %xmm10 vaesenc %xmm13, %xmm0, %xmm0 vaesenc %xmm13, %xmm4, %xmm4 vaesenc %xmm13, %xmm9, %xmm9 vpclmulqdq $16, %xmm12, %xmm1, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $0, %xmm12, %xmm1, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm12, %xmm1, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $1, %xmm12, %xmm1, %xmm8 vpxor %xmm5, %xmm8, %xmm5 #NO_APP vmovdqa 368(%rsp), %xmm1 vpshufb %xmm3, %xmm1, %xmm1 vmovaps 176(%rsp), %xmm12 vmovaps 320(%rsp), %xmm13 #APP vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm13, %xmm11, %xmm11 vaesenc %xmm13, %xmm10, %xmm10 vaesenc %xmm13, %xmm0, %xmm0 vaesenc %xmm13, %xmm4, %xmm4 vaesenc %xmm13, %xmm9, %xmm9 vpclmulqdq $16, %xmm12, %xmm1, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $0, %xmm12, %xmm1, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm12, %xmm1, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $1, %xmm12, %xmm1, %xmm8 vpxor %xmm5, %xmm8, %xmm5 #NO_APP vmovdqa 384(%rsp), %xmm1 vpshufb %xmm3, %xmm1, %xmm1 vmovaps 160(%rsp), %xmm12 vmovaps 304(%rsp), %xmm13 #APP vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm13, %xmm11, %xmm11 vaesenc %xmm13, %xmm10, %xmm10 vaesenc %xmm13, %xmm0, %xmm0 vaesenc %xmm13, %xmm4, %xmm4 vaesenc %xmm13, %xmm9, %xmm9 vpclmulqdq $16, %xmm12, %xmm1, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $0, %xmm12, %xmm1, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm12, %xmm1, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $1, %xmm12, %xmm1, %xmm8 vpxor %xmm5, %xmm8, %xmm5 #NO_APP vmovdqa %xmm3, %xmm8 vmovaps 288(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm4, %xmm4 vaesenc %xmm1, %xmm9, %xmm9 #NO_APP vmovaps 144(%rsp), %xmm3 vmovdqa 272(%rsp), %xmm12 vmovaps 400(%rsp), %xmm13 #APP vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm11, %xmm11 vaesenc %xmm12, %xmm10, %xmm10 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm9, %xmm9 vpclmulqdq $16, %xmm3, %xmm13, %xmm1 vpxor %xmm1, %xmm5, %xmm5 vpclmulqdq $0, %xmm3, %xmm13, %xmm1 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $17, %xmm3, %xmm13, %xmm1 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm13, %xmm1 vpxor %xmm1, %xmm5, %xmm5 #NO_APP vmovaps 256(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm4, %xmm4 vaesenc %xmm1, %xmm9, %xmm9 #NO_APP vmovdqa 240(%rsp), %xmm1 #APP vaesenclast %xmm1, %xmm2, %xmm2 vaesenclast %xmm1, %xmm11, %xmm11 vaesenclast %xmm1, %xmm10, %xmm10 vaesenclast %xmm1, %xmm0, %xmm0 vaesenclast %xmm1, %xmm4, %xmm4 vaesenclast %xmm1, %xmm9, %xmm9 #NO_APP vpxor 416(%rsp), %xmm9, %xmm9 vpxor 64(%rsp), %xmm4, %xmm14 vpxor 80(%rsp), %xmm0, %xmm13 vpxor 48(%rsp), %xmm10, %xmm10 vpxor 16(%rsp), %xmm11, %xmm4 vpxor 32(%rsp), %xmm2, %xmm11 vpxor %xmm1, %xmm1, %xmm1 vpunpcklqdq %xmm5, %xmm1, %xmm0 vpxor %xmm0, %xmm7, %xmm0 vpunpckhqdq %xmm1, %xmm5, %xmm1 vpxor %xmm1, %xmm6, %xmm1 vpbroadcastq .LCPI4_8(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpshufd $78, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm2 vmovdqu %xmm11, (%rcx) vmovdqu %xmm4, 16(%rcx) vmovdqu %xmm10, 32(%rcx) vmovdqu %xmm13, 48(%rcx) vmovdqu %xmm14, 64(%rcx) vmovdqu %xmm9, 80(%rcx) addq $96, %rdx addq $96, %rcx addq $-96, %rbx cmpq $95, %rbx ja .LBB4_18 .LBB4_19: vpshufb %xmm8, %xmm11, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpshufb %xmm8, %xmm4, %xmm1 vpshufb %xmm8, %xmm9, %xmm3 vmovdqa 176(%rsi), %xmm4 vpclmulqdq $0, %xmm3, %xmm4, %xmm5 vpshufb %xmm8, %xmm10, %xmm2 vpclmulqdq $1, %xmm3, %xmm4, %xmm6 vpshufb %xmm8, %xmm13, %xmm7 vpclmulqdq $16, %xmm3, %xmm4, %xmm9 vpshufb %xmm8, %xmm14, %xmm8 vpclmulqdq $17, %xmm3, %xmm4, %xmm4 vmovdqa 192(%rsi), %xmm3 vpclmulqdq $0, %xmm8, %xmm3, %xmm10 vmovdqa 208(%rsi), %xmm11 vpclmulqdq $1, %xmm8, %xmm3, %xmm12 vmovdqa 224(%rsi), %xmm13 vpclmulqdq $16, %xmm8, %xmm3, %xmm14 vpclmulqdq $17, %xmm8, %xmm3, %xmm8 vmovdqa 240(%rsi), %xmm15 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $0, %xmm7, %xmm11, %xmm9 vpxor %xmm5, %xmm10, %xmm5 vpclmulqdq $1, %xmm7, %xmm11, %xmm10 vpxor %xmm14, %xmm12, %xmm12 vpclmulqdq $16, %xmm7, %xmm11, %xmm14 vpclmulqdq $17, %xmm7, %xmm11, %xmm7 vmovdqa 256(%rsi), %xmm3 vpxor %xmm6, %xmm12, %xmm6 vpclmulqdq $0, %xmm2, %xmm13, %xmm11 vpxor %xmm4, %xmm8, %xmm4 vpxor %xmm14, %xmm10, %xmm8 vpxor %xmm11, %xmm9, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $1, %xmm2, %xmm13, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $16, %xmm2, %xmm13, %xmm8 vpclmulqdq $17, %xmm2, %xmm13, %xmm2 vpxor %xmm2, %xmm7, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $0, %xmm1, %xmm15, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $1, %xmm1, %xmm15, %xmm5 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $16, %xmm1, %xmm15, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $17, %xmm1, %xmm15, %xmm1 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $0, %xmm0, %xmm3, %xmm6 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $1, %xmm0, %xmm3, %xmm2 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $16, %xmm0, %xmm3, %xmm6 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $17, %xmm0, %xmm3, %xmm0 vpxor %xmm6, %xmm2, %xmm2 vpxor %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm2, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpbroadcastq .LCPI4_8(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vmovdqa %xmm0, (%rdi) movq %rcx, %r8 cmpq $16, %rbx jae .LBB4_20 .LBB4_15: testq %rbx, %rbx jne .LBB4_23 jmp .LBB4_25 .LBB4_12: movl $16, %r14d subq %rcx, %r14 leaq (%rdx,%r14), %rdi movq %rdi, 48(%rsp) leaq (%r8,%r14), %rdi movq %rdi, 80(%rsp) movq %rax, %rbx subq %r14, %rbx vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r15 movq %r15, %rdi movq %rsi, 16(%rsp) movq %rdx, %rsi movq %r14, %rdx movq %rax, %r13 movq %r8, %r12 callq *memcpy@GOTPCREL(%rip) vmovaps (%rsp), %xmm0 vxorps 64(%rbp), %xmm0, %xmm0 vmovaps %xmm0, 64(%rsp) vmovaps %xmm0, 64(%rbp) vmovaps %xmm0, (%rsp) movq %r12, %rdi movq %r15, %rsi movq %r14, %rdx callq *memcpy@GOTPCREL(%rip) movq 16(%rsp), %rsi movq %rbp, %rdi movq %r13, %rax movq $0, 80(%rbp) vmovdqa 64(%rsp), %xmm0 vpshufb .LCPI4_0(%rip), %xmm0, %xmm0 vpxor (%rbp), %xmm0, %xmm0 vmovdqa 176(%rsi), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpxor %xmm3, %xmm4, %xmm1 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpbroadcastq .LCPI4_8(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpshufd $78, %xmm2, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rbp) movq 80(%rsp), %r8 movq 48(%rsp), %rdx movq 32(%rsp), %r11 cmpq $96, %rbx jae .LBB4_16 .LBB4_14: cmpq $16, %rbx jb .LBB4_15 .LBB4_20: vmovdqa (%rdi), %xmm12 vmovdqa 32(%rdi), %xmm0 vmovaps (%rsi), %xmm1 vmovaps %xmm1, 32(%rsp) vmovaps 16(%rsi), %xmm1 vmovaps %xmm1, 16(%rsp) vmovdqa 32(%rsi), %xmm1 vmovdqa %xmm1, 48(%rsp) vmovdqa 48(%rsi), %xmm4 vmovdqa 64(%rsi), %xmm5 vmovdqa 80(%rsi), %xmm6 vmovdqa 96(%rsi), %xmm7 vmovdqa 112(%rsi), %xmm8 vmovdqa 128(%rsi), %xmm9 vmovdqa 144(%rsi), %xmm10 vmovdqa 160(%rsi), %xmm11 vmovdqa 176(%rsi), %xmm13 vmovdqa .LCPI4_0(%rip), %xmm14 vpbroadcastq .LCPI4_8(%rip), %xmm15 .p2align 4, 0x90 .LBB4_21: vpshufb %xmm14, %xmm0, %xmm1 vpxor 32(%rsp), %xmm1, %xmm1 vaesenc 16(%rsp), %xmm1, %xmm1 vaesenc 48(%rsp), %xmm1, %xmm1 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm5, %xmm1, %xmm1 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm10, %xmm1, %xmm1 vaesenclast %xmm11, %xmm1, %xmm1 vpxor (%rdx), %xmm1, %xmm1 vmovdqu %xmm1, (%r8) vpshufb %xmm14, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm1 vpclmulqdq $0, %xmm1, %xmm13, %xmm12 vpclmulqdq $1, %xmm1, %xmm13, %xmm2 vpclmulqdq $16, %xmm1, %xmm13, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm1, %xmm13, %xmm1 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm12, %xmm3 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm15, %xmm3, %xmm2 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpclmulqdq $16, %xmm15, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm12 addq $16, %rdx addq $16, %r8 addq $-16, %rbx vpaddd .LCPI4_2(%rip), %xmm0, %xmm0 cmpq $15, %rbx ja .LBB4_21 vmovdqa %xmm0, 32(%rdi) vmovdqa %xmm12, (%rdi) testq %rbx, %rbx je .LBB4_25 .LBB4_23: movq %r11, 32(%rsp) movq %rax, %r12 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rax movq memcpy@GOTPCREL(%rip), %r13 movq %rdi, %r15 movq %rax, %rdi movq %rsi, %rbp movq %rdx, %rsi movq %rbx, %rdx movq %r8, %r14 vzeroupper callq *%r13 vmovdqa 32(%r15), %xmm0 vpshufb .LCPI4_0(%rip), %xmm0, %xmm1 vpaddd .LCPI4_2(%rip), %xmm0, %xmm0 vmovdqa %xmm0, 32(%r15) vpxor (%rbp), %xmm1, %xmm0 vaesenc 16(%rbp), %xmm0, %xmm0 vaesenc 32(%rbp), %xmm0, %xmm0 vaesenc 48(%rbp), %xmm0, %xmm0 vaesenc 64(%rbp), %xmm0, %xmm0 vaesenc 80(%rbp), %xmm0, %xmm0 vaesenc 96(%rbp), %xmm0, %xmm0 vaesenc 112(%rbp), %xmm0, %xmm0 vaesenc 128(%rbp), %xmm0, %xmm0 vaesenc 144(%rbp), %xmm0, %xmm0 vaesenclast 160(%rbp), %xmm0, %xmm1 vmovdqa %xmm1, 16(%rsp) vmovdqa (%rsp), %xmm0 vpxor %xmm0, %xmm1, %xmm0 vmovdqa %xmm0, 48(%rsp) vmovdqa %xmm0, (%rsp) movq %rsp, %rsi movq %r14, %rdi movq %rbx, %rdx callq *%r13 movq %r15, %rdi vmovaps 16(%rsp), %xmm0 vmovaps %xmm0, 48(%r15) vmovdqa 48(%rsp), %xmm0 vmovdqa %xmm0, 64(%r15) .LBB4_24: movq %rbx, 80(%rdi) movq %r12, %rax movq 32(%rsp), %r11 .LBB4_25: movq %r11, 104(%rdi) addq $440, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp vzeroupper retq .Lfunc_end4: .size haberdashery_aes128gcm_streaming_haswell_encrypt_update, .Lfunc_end4-haberdashery_aes128gcm_streaming_haswell_encrypt_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI5_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI5_1: .zero 8 .quad -4467570830351532032 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI5_2: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_streaming_haswell_encrypt_finalize,"ax",@progbits .globl haberdashery_aes128gcm_streaming_haswell_encrypt_finalize .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_haswell_encrypt_finalize,@function haberdashery_aes128gcm_streaming_haswell_encrypt_finalize: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $56, %rsp .cfi_def_cfa_offset 112 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq %rcx, %rbx movq %rsi, %r15 movq %rdi, %r12 movq 104(%rdi), %rbp testq %rbp, %rbp je .LBB5_1 movq %rdx, 8(%rsp) leaq 48(%r12), %r14 vmovaps 64(%r12), %xmm0 vmovaps %xmm0, 32(%rsp) movq 80(%r12), %r13 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 16(%rsp) leaq 16(%rsp), %rdi leaq 32(%rsp), %rsi movq %r13, %rdx callq *memcpy@GOTPCREL(%rip) vmovdqa (%r12), %xmm0 testq %r13, %r13 je .LBB5_4 vmovdqa 16(%rsp), %xmm1 vpshufb .LCPI5_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm2 vmovdqa 176(%r15), %xmm3 vpclmulqdq $0, %xmm2, %xmm3, %xmm1 vpclmulqdq $1, %xmm2, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm3, %xmm4 vpxor %xmm0, %xmm4, %xmm0 vpclmulqdq $17, %xmm2, %xmm3, %xmm2 movq 8(%rsp), %rdx jmp .LBB5_6 .LBB5_1: cmpq $0, 80(%r12) vmovdqa (%r12), %xmm0 je .LBB5_8 vmovdqa 176(%r15), %xmm2 vmovdqa 64(%r12), %xmm1 vpshufb .LCPI5_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm3 vpclmulqdq $0, %xmm3, %xmm2, %xmm1 vpclmulqdq $1, %xmm3, %xmm2, %xmm0 leaq 48(%r12), %r14 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpxor %xmm0, %xmm4, %xmm0 vpclmulqdq $17, %xmm3, %xmm2, %xmm2 .LBB5_6: vpslldq $8, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpbroadcastq .LCPI5_2(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpsrldq $8, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm0, %xmm2, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 jmp .LBB5_7 .LBB5_4: movq 8(%rsp), %rdx .LBB5_7: vpxor %xmm1, %xmm1, %xmm1 vmovdqu %ymm1, (%r14) movq $0, 32(%r14) .LBB5_8: vmovdqa 176(%r15), %xmm1 vmovq 96(%r12), %xmm2 vmovq %rbp, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpxor %xmm3, %xmm4, %xmm1 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpbroadcastq .LCPI5_2(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm3, %xmm2, %xmm3 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpshufd $78, %xmm2, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vmovdqa %xmm0, (%r12) testq %rbx, %rbx je .LBB5_9 vmovdqa (%r15), %xmm1 vpxor 16(%r12), %xmm1, %xmm1 vaesenc 16(%r15), %xmm1, %xmm1 vaesenc 32(%r15), %xmm1, %xmm1 vaesenc 48(%r15), %xmm1, %xmm1 vaesenc 64(%r15), %xmm1, %xmm1 vaesenc 80(%r15), %xmm1, %xmm1 vaesenc 96(%r15), %xmm1, %xmm1 vaesenc 112(%r15), %xmm1, %xmm1 vaesenc 128(%r15), %xmm1, %xmm1 vaesenc 144(%r15), %xmm1, %xmm1 vaesenclast 160(%r15), %xmm1, %xmm1 vpshufb .LCPI5_0(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 cmpq $16, %rbx jae .LBB5_11 vmovdqa %xmm0, 16(%rsp) leaq 16(%rsp), %rsi movq %rdx, %rdi movq %rbx, %rdx vzeroupper callq *memcpy@GOTPCREL(%rip) jmp .LBB5_13 .LBB5_9: xorl %ebx, %ebx jmp .LBB5_13 .LBB5_11: vmovdqu %xmm0, (%rdx) movl $16, %ebx .LBB5_13: movq %rbx, %rax addq $56, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 vzeroupper retq .Lfunc_end5: .size haberdashery_aes128gcm_streaming_haswell_encrypt_finalize, .Lfunc_end5-haberdashery_aes128gcm_streaming_haswell_encrypt_finalize .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI6_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI6_1: .zero 8 .quad -4467570830351532032 .LCPI6_2: .long 1 .long 0 .long 0 .long 0 .LCPI6_3: .long 2 .long 0 .long 0 .long 0 .LCPI6_4: .long 3 .long 0 .long 0 .long 0 .LCPI6_5: .long 4 .long 0 .long 0 .long 0 .LCPI6_6: .long 5 .long 0 .long 0 .long 0 .LCPI6_7: .long 6 .long 0 .long 0 .long 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI6_8: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_streaming_haswell_decrypt_update,"ax",@progbits .globl haberdashery_aes128gcm_streaming_haswell_decrypt_update .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_haswell_decrypt_update,@function haberdashery_aes128gcm_streaming_haswell_decrypt_update: .cfi_startproc cmpq %r9, %rcx jne .LBB6_2 movq %rcx, %rax movabsq $-68719476704, %rcx leaq (%rax,%rcx), %r9 incq %rcx cmpq %rcx, %r9 jae .LBB6_3 .LBB6_2: xorl %eax, %eax retq .LBB6_3: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $392, %rsp .cfi_def_cfa_offset 448 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 104(%rdi), %rcx leaq (%rcx,%rax), %r13 movq %r13, %r9 shrq $5, %r9 cmpq $2147483646, %r9 jbe .LBB6_5 xorl %eax, %eax jmp .LBB6_24 .LBB6_5: testq %rcx, %rcx setne %r9b movq 80(%rdi), %rcx testq %rcx, %rcx sete %r10b orb %r9b, %r10b je .LBB6_9 testq %rcx, %rcx je .LBB6_10 movq %rdi, %rbp leaq (%rcx,%rax), %rbx cmpq $15, %rbx movq %rax, 56(%rsp) ja .LBB6_11 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r14 movq %r14, %rdi movq %rdx, %rsi movq %rax, %rdx movq %rax, %r15 movq %r8, %r12 callq *memcpy@GOTPCREL(%rip) vmovdqa (%rsp), %xmm0 vpxor 64(%rbp), %xmm0, %xmm0 vmovdqa %xmm0, 64(%rbp) vmovdqa %xmm0, (%rsp) movq %r12, %rdi movq %r14, %rsi movq %r15, %rdx callq *memcpy@GOTPCREL(%rip) movq %rbp, %rdi jmp .LBB6_22 .LBB6_9: vmovdqa 64(%rdi), %xmm0 vpshufb .LCPI6_0(%rip), %xmm0, %xmm0 vpxor (%rdi), %xmm0, %xmm0 vmovdqa 176(%rsi), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpxor %xmm3, %xmm4, %xmm1 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpbroadcastq .LCPI6_8(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpshufd $78, %xmm2, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rdi) vpxor %xmm0, %xmm0, %xmm0 vmovdqu %ymm0, 48(%rdi) movq $0, 80(%rdi) .LBB6_10: movq %rax, %rbx cmpq $96, %rbx jb .LBB6_13 .LBB6_15: vmovdqa (%rdi), %xmm3 vmovaps (%rsi), %xmm0 vmovaps %xmm0, 96(%rsp) vmovaps 16(%rsi), %xmm0 vmovaps %xmm0, 352(%rsp) vmovaps 32(%rsi), %xmm0 vmovaps %xmm0, 336(%rsp) vmovaps 48(%rsi), %xmm0 vmovaps %xmm0, 320(%rsp) vmovaps 64(%rsi), %xmm0 vmovaps %xmm0, 304(%rsp) vmovaps 80(%rsi), %xmm0 vmovaps %xmm0, 288(%rsp) vmovaps 96(%rsi), %xmm0 vmovaps %xmm0, 272(%rsp) vmovaps 112(%rsi), %xmm0 vmovaps %xmm0, 256(%rsp) vmovaps 128(%rsi), %xmm0 vmovaps %xmm0, 240(%rsp) vmovaps 144(%rsi), %xmm0 vmovaps %xmm0, 224(%rsp) vmovaps 160(%rsi), %xmm0 vmovaps %xmm0, 208(%rsp) vmovaps 176(%rsi), %xmm0 vmovaps %xmm0, 192(%rsp) vmovaps 192(%rsi), %xmm0 vmovaps %xmm0, 176(%rsp) vmovaps 208(%rsi), %xmm0 vmovaps %xmm0, 160(%rsp) vmovaps 224(%rsi), %xmm0 vmovaps %xmm0, 144(%rsp) vmovaps 240(%rsi), %xmm0 vmovaps %xmm0, 128(%rsp) vmovdqa 256(%rsi), %xmm0 vmovdqa %xmm0, 112(%rsp) .p2align 4, 0x90 .LBB6_16: vmovdqu (%rdx), %xmm6 vmovdqa %xmm6, 80(%rsp) vmovups 16(%rdx), %xmm0 vmovaps %xmm0, 32(%rsp) vmovups 32(%rdx), %xmm0 vmovaps %xmm0, 16(%rsp) vmovdqu 48(%rdx), %xmm10 vmovdqu 64(%rdx), %xmm7 vmovdqu 80(%rdx), %xmm8 vmovdqa %xmm8, 64(%rsp) vmovdqa 32(%rdi), %xmm0 vmovdqa .LCPI6_0(%rip), %xmm2 vpshufb %xmm2, %xmm0, %xmm1 vpaddd .LCPI6_2(%rip), %xmm0, %xmm4 vpshufb %xmm2, %xmm4, %xmm4 vpaddd .LCPI6_3(%rip), %xmm0, %xmm5 vpshufb %xmm2, %xmm5, %xmm5 vpaddd .LCPI6_4(%rip), %xmm0, %xmm11 vpshufb %xmm2, %xmm11, %xmm14 vpaddd .LCPI6_5(%rip), %xmm0, %xmm11 vpshufb %xmm2, %xmm11, %xmm15 vpaddd .LCPI6_6(%rip), %xmm0, %xmm11 vpaddd .LCPI6_7(%rip), %xmm0, %xmm0 vmovdqa %xmm0, 32(%rdi) vpshufb %xmm2, %xmm11, %xmm0 vpshufb %xmm2, %xmm6, %xmm11 vpxor %xmm3, %xmm11, %xmm3 vmovdqa %xmm3, 368(%rsp) vpshufb %xmm2, %xmm8, %xmm6 vmovdqa 96(%rsp), %xmm3 vpxor %xmm1, %xmm3, %xmm11 vpxor %xmm4, %xmm3, %xmm12 vpxor %xmm5, %xmm3, %xmm13 vpxor %xmm3, %xmm14, %xmm14 vpxor %xmm3, %xmm15, %xmm15 vpxor %xmm0, %xmm3, %xmm1 vmovaps 352(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm12, %xmm12 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 #NO_APP vpxor %xmm4, %xmm4, %xmm4 vxorps %xmm0, %xmm0, %xmm0 vpxor %xmm5, %xmm5, %xmm5 vmovaps 336(%rsp), %xmm8 vmovaps 192(%rsp), %xmm9 #APP vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vpclmulqdq $16, %xmm9, %xmm6, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpclmulqdq $0, %xmm9, %xmm6, %xmm3 vpxor %xmm3, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm6, %xmm3 vpxor %xmm3, %xmm5, %xmm5 vpclmulqdq $1, %xmm9, %xmm6, %xmm3 vpxor %xmm3, %xmm0, %xmm0 #NO_APP vpshufb %xmm2, %xmm7, %xmm3 vmovaps 320(%rsp), %xmm8 vmovaps 176(%rsp), %xmm9 #APP vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vpclmulqdq $16, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $0, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $1, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm0, %xmm0 #NO_APP vpshufb %xmm2, %xmm10, %xmm3 vmovaps 304(%rsp), %xmm8 vmovaps 160(%rsp), %xmm9 #APP vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vpclmulqdq $16, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $0, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $1, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm0, %xmm0 #NO_APP vmovdqa 16(%rsp), %xmm3 vpshufb %xmm2, %xmm3, %xmm3 vmovaps 288(%rsp), %xmm8 vmovaps 144(%rsp), %xmm9 #APP vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vpclmulqdq $16, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $0, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $1, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm0, %xmm0 #NO_APP vmovdqa 32(%rsp), %xmm3 vpshufb %xmm2, %xmm3, %xmm3 vmovaps 272(%rsp), %xmm8 vmovdqa 128(%rsp), %xmm9 #APP vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vpclmulqdq $16, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $0, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $1, %xmm9, %xmm3, %xmm6 vpxor %xmm6, %xmm0, %xmm0 #NO_APP vmovaps 256(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm1, %xmm1 #NO_APP vmovdqa 240(%rsp), %xmm6 vmovaps 112(%rsp), %xmm8 vmovdqa 368(%rsp), %xmm2 #APP vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm14, %xmm14 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm6, %xmm1, %xmm1 vpclmulqdq $16, %xmm8, %xmm2, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpclmulqdq $0, %xmm8, %xmm2, %xmm3 vpxor %xmm3, %xmm4, %xmm4 vpclmulqdq $17, %xmm8, %xmm2, %xmm3 vpxor %xmm3, %xmm5, %xmm5 vpclmulqdq $1, %xmm8, %xmm2, %xmm3 vpxor %xmm3, %xmm0, %xmm0 #NO_APP vpxor %xmm6, %xmm6, %xmm6 vpunpcklqdq %xmm0, %xmm6, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpunpckhqdq %xmm6, %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpbroadcastq .LCPI6_8(%rip), %xmm5 vpclmulqdq $16, %xmm5, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpshufd $78, %xmm3, %xmm4 vpxor %xmm4, %xmm0, %xmm0 vpclmulqdq $16, %xmm5, %xmm3, %xmm3 vpxor %xmm3, %xmm0, %xmm3 vmovaps 224(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm12, %xmm12 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 #NO_APP vmovaps 208(%rsp), %xmm0 #APP vaesenclast %xmm0, %xmm11, %xmm11 vaesenclast %xmm0, %xmm12, %xmm12 vaesenclast %xmm0, %xmm13, %xmm13 vaesenclast %xmm0, %xmm14, %xmm14 vaesenclast %xmm0, %xmm15, %xmm15 vaesenclast %xmm0, %xmm1, %xmm1 #NO_APP vpxor 80(%rsp), %xmm11, %xmm0 vpxor 32(%rsp), %xmm12, %xmm4 vpxor 16(%rsp), %xmm13, %xmm5 vpxor %xmm10, %xmm14, %xmm6 vpxor %xmm7, %xmm15, %xmm8 vpxor 64(%rsp), %xmm1, %xmm1 vmovdqu %xmm0, (%r8) vmovdqu %xmm4, 16(%r8) vmovdqu %xmm5, 32(%r8) vmovdqu %xmm6, 48(%r8) vmovdqu %xmm8, 64(%r8) vmovdqu %xmm1, 80(%r8) addq $96, %rdx addq $96, %r8 addq $-96, %rbx cmpq $95, %rbx ja .LBB6_16 vmovdqa %xmm3, (%rdi) cmpq $16, %rbx jae .LBB6_18 .LBB6_14: testq %rbx, %rbx jne .LBB6_21 jmp .LBB6_23 .LBB6_11: movl $16, %r14d subq %rcx, %r14 leaq (%rdx,%r14), %rdi movq %rdi, 16(%rsp) leaq (%r8,%r14), %rdi movq %rdi, 80(%rsp) movq %rax, %rbx subq %r14, %rbx vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r15 movq %r15, %rdi movq %rsi, 32(%rsp) movq %rdx, %rsi movq %r14, %rdx movq %r8, %r12 callq *memcpy@GOTPCREL(%rip) vmovaps (%rsp), %xmm0 vxorps 64(%rbp), %xmm0, %xmm0 vmovaps %xmm0, 64(%rsp) vmovaps %xmm0, 64(%rbp) vmovaps %xmm0, (%rsp) movq %r12, %rdi movq %r15, %rsi movq %r14, %rdx callq *memcpy@GOTPCREL(%rip) movq 32(%rsp), %rsi movq %rbp, %rdi movq 56(%rsp), %rax movq $0, 80(%rbp) vmovdqa 64(%rsp), %xmm0 vpxor 48(%rbp), %xmm0, %xmm0 vpshufb .LCPI6_0(%rip), %xmm0, %xmm0 vpxor (%rbp), %xmm0, %xmm0 vmovdqa 176(%rsi), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpxor %xmm3, %xmm4, %xmm1 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpbroadcastq .LCPI6_8(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpshufd $78, %xmm2, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rbp) movq 80(%rsp), %r8 movq 16(%rsp), %rdx cmpq $96, %rbx jae .LBB6_15 .LBB6_13: cmpq $16, %rbx jb .LBB6_14 .LBB6_18: vmovdqa (%rdi), %xmm14 vmovdqa 32(%rdi), %xmm0 vmovdqa 176(%rsi), %xmm1 vmovaps (%rsi), %xmm2 vmovaps %xmm2, 32(%rsp) vmovaps 16(%rsi), %xmm2 vmovaps %xmm2, 16(%rsp) vmovaps 32(%rsi), %xmm2 vmovaps %xmm2, 80(%rsp) vmovdqa 48(%rsi), %xmm2 vmovdqa %xmm2, 64(%rsp) vmovdqa 64(%rsi), %xmm6 vmovdqa 80(%rsi), %xmm7 vmovdqa 96(%rsi), %xmm8 vmovdqa 112(%rsi), %xmm9 vmovdqa 128(%rsi), %xmm10 vmovdqa 144(%rsi), %xmm11 vmovdqa 160(%rsi), %xmm12 vmovdqa .LCPI6_0(%rip), %xmm13 vpbroadcastq .LCPI6_8(%rip), %xmm15 .p2align 4, 0x90 .LBB6_19: vmovdqu (%rdx), %xmm2 vpshufb %xmm13, %xmm2, %xmm3 vpxor %xmm3, %xmm14, %xmm3 vpclmulqdq $0, %xmm3, %xmm1, %xmm14 vpclmulqdq $1, %xmm3, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm1, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm14, %xmm5 vpclmulqdq $17, %xmm3, %xmm1, %xmm3 vpsrldq $8, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm15, %xmm5, %xmm4 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpshufd $78, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm15, %xmm4, %xmm4 vpxor %xmm3, %xmm4, %xmm14 vpshufb %xmm13, %xmm0, %xmm3 vpxor 32(%rsp), %xmm3, %xmm3 vaesenc 16(%rsp), %xmm3, %xmm3 vaesenc 80(%rsp), %xmm3, %xmm3 vaesenc 64(%rsp), %xmm3, %xmm3 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm11, %xmm3, %xmm3 vaesenclast %xmm12, %xmm3, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vmovdqu %xmm2, (%r8) addq $16, %r8 addq $-16, %rbx addq $16, %rdx vpaddd .LCPI6_2(%rip), %xmm0, %xmm0 cmpq $15, %rbx ja .LBB6_19 vmovdqa %xmm0, 32(%rdi) vmovdqa %xmm14, (%rdi) testq %rbx, %rbx je .LBB6_23 .LBB6_21: movq %rax, 56(%rsp) vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rax movq memcpy@GOTPCREL(%rip), %r12 movq %rdi, %r15 movq %rax, %rdi movq %r13, %rbp movq %rsi, %r13 movq %rdx, %rsi movq %rbx, %rdx movq %r8, %r14 vzeroupper callq *%r12 vmovdqa 32(%r15), %xmm0 vpshufb .LCPI6_0(%rip), %xmm0, %xmm1 vpaddd .LCPI6_2(%rip), %xmm0, %xmm0 vmovdqa %xmm0, 32(%r15) vpxor (%r13), %xmm1, %xmm0 vaesenc 16(%r13), %xmm0, %xmm0 vaesenc 32(%r13), %xmm0, %xmm0 vaesenc 48(%r13), %xmm0, %xmm0 vaesenc 64(%r13), %xmm0, %xmm0 vaesenc 80(%r13), %xmm0, %xmm0 vaesenc 96(%r13), %xmm0, %xmm0 vaesenc 112(%r13), %xmm0, %xmm0 vaesenc 128(%r13), %xmm0, %xmm0 vaesenc 144(%r13), %xmm0, %xmm0 vaesenclast 160(%r13), %xmm0, %xmm1 vmovdqa %xmm1, 32(%rsp) movq %rbp, %r13 vmovdqa (%rsp), %xmm0 vpxor %xmm0, %xmm1, %xmm0 vmovdqa %xmm0, 16(%rsp) vmovdqa %xmm0, (%rsp) movq %rsp, %rsi movq %r14, %rdi movq %rbx, %rdx callq *%r12 movq %r15, %rdi vmovaps 32(%rsp), %xmm0 vmovaps %xmm0, 48(%r15) vmovdqa 16(%rsp), %xmm0 vmovdqa %xmm0, 64(%r15) .LBB6_22: movq %rbx, 80(%rdi) movq 56(%rsp), %rax .LBB6_23: movq %r13, 104(%rdi) .LBB6_24: addq $392, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp vzeroupper retq .Lfunc_end6: .size haberdashery_aes128gcm_streaming_haswell_decrypt_update, .Lfunc_end6-haberdashery_aes128gcm_streaming_haswell_decrypt_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI7_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI7_1: .zero 8 .quad -4467570830351532032 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI7_2: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_streaming_haswell_decrypt_finalize,"ax",@progbits .globl haberdashery_aes128gcm_streaming_haswell_decrypt_finalize .p2align 4, 0x90 .type haberdashery_aes128gcm_streaming_haswell_decrypt_finalize,@function haberdashery_aes128gcm_streaming_haswell_decrypt_finalize: .cfi_startproc xorl %eax, %eax cmpq $16, %rcx jne .LBB7_10 pushq %r15 .cfi_def_cfa_offset 16 pushq %r14 .cfi_def_cfa_offset 24 pushq %r13 .cfi_def_cfa_offset 32 pushq %r12 .cfi_def_cfa_offset 40 pushq %rbx .cfi_def_cfa_offset 48 subq $48, %rsp .cfi_def_cfa_offset 96 .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r13, -32 .cfi_offset %r14, -24 .cfi_offset %r15, -16 vmovdqu (%rdx), %xmm5 movq 104(%rdi), %r14 testq %r14, %r14 je .LBB7_2 vmovdqa %xmm5, (%rsp) movq %rsi, %r12 leaq 48(%rdi), %r15 vmovaps 48(%rdi), %xmm0 vxorps 64(%rdi), %xmm0, %xmm0 vmovaps %xmm0, 32(%rsp) movq 80(%rdi), %rbx vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 16(%rsp) leaq 16(%rsp), %rax leaq 32(%rsp), %rsi movq %rdi, %r13 movq %rax, %rdi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) movq %r13, %rdi vmovdqa (%r13), %xmm0 testq %rbx, %rbx je .LBB7_5 vmovdqa 16(%rsp), %xmm1 vpshufb .LCPI7_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm2 movq %r12, %rsi vmovdqa 176(%r12), %xmm3 vpclmulqdq $0, %xmm2, %xmm3, %xmm1 vpclmulqdq $1, %xmm2, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm3, %xmm4 vpxor %xmm0, %xmm4, %xmm0 vpclmulqdq $17, %xmm2, %xmm3, %xmm2 vmovdqa (%rsp), %xmm5 jmp .LBB7_7 .LBB7_2: cmpq $0, 80(%rdi) vmovdqa (%rdi), %xmm0 je .LBB7_9 vmovdqa 176(%rsi), %xmm2 vmovdqa 64(%rdi), %xmm1 vpshufb .LCPI7_0(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm3 vpclmulqdq $0, %xmm3, %xmm2, %xmm1 vpclmulqdq $1, %xmm3, %xmm2, %xmm0 leaq 48(%rdi), %r15 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpxor %xmm0, %xmm4, %xmm0 vpclmulqdq $17, %xmm3, %xmm2, %xmm2 .LBB7_7: vpslldq $8, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpbroadcastq .LCPI7_2(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpsrldq $8, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm0, %xmm2, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm3, %xmm0, %xmm0 jmp .LBB7_8 .LBB7_5: movq %r12, %rsi vmovdqa (%rsp), %xmm5 .LBB7_8: vpxor %xmm1, %xmm1, %xmm1 vmovdqu %ymm1, (%r15) movq $0, 32(%r15) .LBB7_9: vmovdqa 176(%rsi), %xmm1 vmovq 96(%rdi), %xmm2 vmovq %r14, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpxor %xmm3, %xmm4, %xmm1 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpbroadcastq .LCPI7_2(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpshufd $78, %xmm2, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rdi) vmovdqa (%rsi), %xmm1 vpxor 16(%rdi), %xmm1, %xmm1 vaesenc 16(%rsi), %xmm1, %xmm1 vaesenc 32(%rsi), %xmm1, %xmm1 vaesenc 48(%rsi), %xmm1, %xmm1 vaesenc 64(%rsi), %xmm1, %xmm1 vaesenc 80(%rsi), %xmm1, %xmm1 vaesenc 96(%rsi), %xmm1, %xmm1 vaesenc 112(%rsi), %xmm1, %xmm1 vaesenc 128(%rsi), %xmm1, %xmm1 vaesenc 144(%rsi), %xmm1, %xmm1 vaesenclast 160(%rsi), %xmm1, %xmm1 vpshufb .LCPI7_0(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpxor %xmm1, %xmm0, %xmm0 xorl %eax, %eax vptest %xmm0, %xmm0 sete %al addq $48, %rsp .cfi_def_cfa_offset 48 popq %rbx .cfi_def_cfa_offset 40 popq %r12 .cfi_def_cfa_offset 32 popq %r13 .cfi_def_cfa_offset 24 popq %r14 .cfi_def_cfa_offset 16 popq %r15 .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .LBB7_10: vzeroupper retq .Lfunc_end7: .size haberdashery_aes128gcm_streaming_haswell_decrypt_finalize, .Lfunc_end7-haberdashery_aes128gcm_streaming_haswell_decrypt_finalize .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
50,151
asm/aes128gcm_tigerlake.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_1: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_tigerlake_init,"ax",@progbits .globl haberdashery_aes128gcm_tigerlake_init .p2align 4, 0x90 .type haberdashery_aes128gcm_tigerlake_init,@function haberdashery_aes128gcm_tigerlake_init: .cfi_startproc cmpq $16, %rdx jne .LBB0_2 vmovdqu (%rsi), %xmm0 vaeskeygenassist $1, %xmm0, %xmm1 vpslldq $4, %xmm0, %xmm2 vpslldq $8, %xmm0, %xmm3 vpslldq $12, %xmm0, %xmm4 vpternlogq $150, %xmm3, %xmm2, %xmm4 vpshufd $255, %xmm1, %xmm1 vpternlogq $150, %xmm4, %xmm0, %xmm1 vaeskeygenassist $2, %xmm1, %xmm2 vpslldq $4, %xmm1, %xmm3 vpslldq $8, %xmm1, %xmm4 vpslldq $12, %xmm1, %xmm5 vpternlogq $150, %xmm4, %xmm3, %xmm5 vpshufd $255, %xmm2, %xmm2 vpternlogq $150, %xmm5, %xmm1, %xmm2 vaeskeygenassist $4, %xmm2, %xmm3 vpslldq $4, %xmm2, %xmm4 vpslldq $8, %xmm2, %xmm5 vpslldq $12, %xmm2, %xmm6 vpternlogq $150, %xmm5, %xmm4, %xmm6 vpshufd $255, %xmm3, %xmm3 vpternlogq $150, %xmm6, %xmm2, %xmm3 vaeskeygenassist $8, %xmm3, %xmm4 vpslldq $4, %xmm3, %xmm5 vpslldq $8, %xmm3, %xmm6 vpslldq $12, %xmm3, %xmm7 vpternlogq $150, %xmm6, %xmm5, %xmm7 vpshufd $255, %xmm4, %xmm4 vpternlogq $150, %xmm7, %xmm3, %xmm4 vaeskeygenassist $16, %xmm4, %xmm5 vpslldq $4, %xmm4, %xmm6 vpslldq $8, %xmm4, %xmm7 vpslldq $12, %xmm4, %xmm8 vpternlogq $150, %xmm7, %xmm6, %xmm8 vpshufd $255, %xmm5, %xmm5 vpternlogq $150, %xmm8, %xmm4, %xmm5 vaeskeygenassist $32, %xmm5, %xmm6 vpslldq $4, %xmm5, %xmm7 vpslldq $8, %xmm5, %xmm8 vpslldq $12, %xmm5, %xmm9 vpternlogq $150, %xmm8, %xmm7, %xmm9 vpshufd $255, %xmm6, %xmm6 vpternlogq $150, %xmm9, %xmm5, %xmm6 vpslldq $4, %xmm6, %xmm7 vaeskeygenassist $64, %xmm6, %xmm8 vpslldq $8, %xmm6, %xmm9 vpslldq $12, %xmm6, %xmm10 vpternlogq $150, %xmm9, %xmm7, %xmm10 vpshufd $255, %xmm8, %xmm7 vpternlogq $150, %xmm10, %xmm6, %xmm7 vpslldq $4, %xmm7, %xmm8 vpslldq $8, %xmm7, %xmm9 vaeskeygenassist $128, %xmm7, %xmm10 vpslldq $12, %xmm7, %xmm11 vpternlogq $150, %xmm9, %xmm8, %xmm11 vpshufd $255, %xmm10, %xmm8 vpternlogq $150, %xmm11, %xmm7, %xmm8 vpslldq $4, %xmm8, %xmm9 vpslldq $8, %xmm8, %xmm10 vpslldq $12, %xmm8, %xmm11 vaeskeygenassist $27, %xmm8, %xmm12 vpternlogq $150, %xmm10, %xmm9, %xmm11 vpshufd $255, %xmm12, %xmm9 vpternlogq $150, %xmm11, %xmm8, %xmm9 vpslldq $4, %xmm9, %xmm10 vpslldq $8, %xmm9, %xmm11 vpslldq $12, %xmm9, %xmm12 vpternlogq $150, %xmm11, %xmm10, %xmm12 vaeskeygenassist $54, %xmm9, %xmm10 vpshufd $255, %xmm10, %xmm10 vpternlogq $150, %xmm12, %xmm9, %xmm10 vaesenc %xmm1, %xmm0, %xmm11 vaesenc %xmm2, %xmm11, %xmm11 vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm9, %xmm11, %xmm11 vaesenclast %xmm10, %xmm11, %xmm11 vpshufb .LCPI0_0(%rip), %xmm11, %xmm11 vpsrlq $63, %xmm11, %xmm12 vpaddq %xmm11, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm13 vpxor %xmm14, %xmm14, %xmm14 vpblendd $12, %xmm12, %xmm14, %xmm12 vpsllq $63, %xmm12, %xmm14 vpternlogq $30, %xmm13, %xmm11, %xmm14 vpsllq $62, %xmm12, %xmm13 vpsllq $57, %xmm12, %xmm11 vpternlogq $150, %xmm13, %xmm14, %xmm11 vpclmulqdq $0, %xmm11, %xmm11, %xmm12 vpbroadcastq .LCPI0_1(%rip), %xmm13 vpclmulqdq $16, %xmm13, %xmm12, %xmm14 vpshufd $78, %xmm12, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $16, %xmm13, %xmm12, %xmm14 vpclmulqdq $17, %xmm11, %xmm11, %xmm15 vpshufd $78, %xmm12, %xmm12 vpternlogq $150, %xmm14, %xmm15, %xmm12 vpclmulqdq $0, %xmm11, %xmm12, %xmm14 vpclmulqdq $16, %xmm11, %xmm12, %xmm15 vpclmulqdq $1, %xmm11, %xmm12, %xmm16 vpxorq %xmm15, %xmm16, %xmm15 vpslldq $8, %xmm15, %xmm16 vpxorq %xmm16, %xmm14, %xmm14 vpclmulqdq $16, %xmm13, %xmm14, %xmm16 vpshufd $78, %xmm14, %xmm14 vpxorq %xmm14, %xmm16, %xmm14 vpclmulqdq $16, %xmm13, %xmm14, %xmm16 vpclmulqdq $17, %xmm11, %xmm12, %xmm17 vpxorq %xmm16, %xmm17, %xmm16 vpsrldq $8, %xmm15, %xmm15 vpshufd $78, %xmm14, %xmm14 vpternlogq $150, %xmm15, %xmm16, %xmm14 vpclmulqdq $0, %xmm14, %xmm14, %xmm15 vpclmulqdq $16, %xmm13, %xmm15, %xmm16 vpshufd $78, %xmm15, %xmm15 vpxorq %xmm15, %xmm16, %xmm15 vpclmulqdq $16, %xmm13, %xmm15, %xmm16 vpclmulqdq $17, %xmm14, %xmm14, %xmm17 vpshufd $78, %xmm15, %xmm15 vpternlogq $150, %xmm16, %xmm17, %xmm15 vpclmulqdq $0, %xmm12, %xmm12, %xmm16 vpclmulqdq $16, %xmm13, %xmm16, %xmm17 vpshufd $78, %xmm16, %xmm16 vpxorq %xmm16, %xmm17, %xmm16 vpclmulqdq $16, %xmm13, %xmm16, %xmm17 vpclmulqdq $17, %xmm12, %xmm12, %xmm18 vpshufd $78, %xmm16, %xmm16 vpternlogq $150, %xmm17, %xmm18, %xmm16 vpclmulqdq $0, %xmm11, %xmm16, %xmm17 vpclmulqdq $16, %xmm11, %xmm16, %xmm18 vpclmulqdq $1, %xmm11, %xmm16, %xmm19 vpxorq %xmm18, %xmm19, %xmm18 vpslldq $8, %xmm18, %xmm19 vpxorq %xmm19, %xmm17, %xmm17 vpclmulqdq $16, %xmm13, %xmm17, %xmm19 vpshufd $78, %xmm17, %xmm17 vpxorq %xmm17, %xmm19, %xmm17 vpclmulqdq $16, %xmm13, %xmm17, %xmm13 vpclmulqdq $17, %xmm11, %xmm16, %xmm19 vpxorq %xmm13, %xmm19, %xmm13 vpsrldq $8, %xmm18, %xmm18 vpshufd $78, %xmm17, %xmm17 vpternlogq $150, %xmm18, %xmm13, %xmm17 vmovdqa %xmm0, (%rdi) vmovdqa %xmm1, 16(%rdi) vmovdqa %xmm2, 32(%rdi) vmovdqa %xmm3, 48(%rdi) vmovdqa %xmm4, 64(%rdi) vmovdqa %xmm5, 80(%rdi) vmovdqa %xmm6, 96(%rdi) vmovdqa %xmm7, 112(%rdi) vmovdqa %xmm8, 128(%rdi) vmovdqa %xmm9, 144(%rdi) vmovdqa %xmm10, 160(%rdi) vmovdqa %xmm11, 176(%rdi) vmovdqa %xmm12, 192(%rdi) vmovdqa %xmm14, 208(%rdi) vmovdqa64 %xmm16, 224(%rdi) vmovdqa64 %xmm17, 240(%rdi) vmovdqa %xmm15, 256(%rdi) .LBB0_2: xorl %eax, %eax cmpq $16, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes128gcm_tigerlake_init, .Lfunc_end0-haberdashery_aes128gcm_tigerlake_init .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI1_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_1: .long 1 .long 0 .long 0 .long 0 .LCPI1_2: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_4: .long 2 .long 0 .long 0 .long 0 .LCPI1_5: .long 3 .long 0 .long 0 .long 0 .LCPI1_6: .long 4 .long 0 .long 0 .long 0 .LCPI1_7: .long 5 .long 0 .long 0 .long 0 .LCPI1_8: .long 6 .long 0 .long 0 .long 0 .LCPI1_9: .long 7 .long 0 .long 0 .long 0 .LCPI1_10: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_11: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI1_3: .quad -4467570830351532032 .section .rodata,"a",@progbits .LCPI1_12: .byte 1 .byte 0 .section .text.haberdashery_aes128gcm_tigerlake_encrypt,"ax",@progbits .globl haberdashery_aes128gcm_tigerlake_encrypt .p2align 4, 0x90 .type haberdashery_aes128gcm_tigerlake_encrypt,@function haberdashery_aes128gcm_tigerlake_encrypt: .cfi_startproc pushq %rbx .cfi_def_cfa_offset 16 subq $48, %rsp .cfi_def_cfa_offset 64 .cfi_offset %rbx, -16 movq 64(%rsp), %r10 xorl %eax, %eax cmpq 80(%rsp), %r10 jne .LBB1_22 cmpq $16, 96(%rsp) setne %r11b movabsq $2305843009213693950, %rbx cmpq %rbx, %r8 seta %bl orb %r11b, %bl jne .LBB1_22 movq %r10, %r11 shrq $5, %r11 cmpq $2147483647, %r11 setae %r11b cmpq $12, %rdx setne %dl orb %r11b, %dl jne .LBB1_22 vmovd (%rsi), %xmm0 vpinsrd $1, 4(%rsi), %xmm0, %xmm0 vpinsrd $2, 8(%rsi), %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm21 vpxor %xmm1, %xmm1, %xmm1 testq %r8, %r8 je .LBB1_18 cmpq $96, %r8 jb .LBB1_5 vmovdqa 176(%rdi), %xmm0 vmovdqa 192(%rdi), %xmm2 vmovdqa 208(%rdi), %xmm3 vmovdqa 224(%rdi), %xmm4 vmovdqa 240(%rdi), %xmm5 vmovdqa 256(%rdi), %xmm6 vmovdqa .LCPI1_2(%rip), %xmm7 vpbroadcastq .LCPI1_3(%rip), %xmm8 movq %r8, %rdx .p2align 4, 0x90 .LBB1_17: vmovdqu (%rcx), %xmm9 vmovdqu 16(%rcx), %xmm10 vmovdqu 32(%rcx), %xmm11 vmovdqu 48(%rcx), %xmm12 vmovdqu 64(%rcx), %xmm13 vmovdqu 80(%rcx), %xmm14 addq $96, %rcx addq $-96, %rdx vpshufb %xmm7, %xmm9, %xmm9 vpxor %xmm1, %xmm9, %xmm1 vpshufb %xmm7, %xmm10, %xmm9 vpshufb %xmm7, %xmm11, %xmm10 vpshufb %xmm7, %xmm12, %xmm11 vpshufb %xmm7, %xmm13, %xmm12 vpshufb %xmm7, %xmm14, %xmm13 vpclmulqdq $0, %xmm13, %xmm0, %xmm14 vpclmulqdq $1, %xmm13, %xmm0, %xmm15 vpclmulqdq $16, %xmm13, %xmm0, %xmm17 vpxorq %xmm15, %xmm17, %xmm15 vpclmulqdq $17, %xmm13, %xmm0, %xmm13 vpclmulqdq $0, %xmm12, %xmm2, %xmm17 vpclmulqdq $1, %xmm12, %xmm2, %xmm18 vpclmulqdq $16, %xmm12, %xmm2, %xmm19 vpternlogq $150, %xmm18, %xmm15, %xmm19 vpclmulqdq $17, %xmm12, %xmm2, %xmm12 vpclmulqdq $0, %xmm11, %xmm3, %xmm15 vpternlogq $150, %xmm14, %xmm17, %xmm15 vpclmulqdq $1, %xmm11, %xmm3, %xmm14 vpclmulqdq $16, %xmm11, %xmm3, %xmm17 vpternlogq $150, %xmm14, %xmm19, %xmm17 vpclmulqdq $17, %xmm11, %xmm3, %xmm11 vpternlogq $150, %xmm13, %xmm12, %xmm11 vpclmulqdq $0, %xmm10, %xmm4, %xmm12 vpclmulqdq $1, %xmm10, %xmm4, %xmm13 vpclmulqdq $16, %xmm10, %xmm4, %xmm14 vpternlogq $150, %xmm13, %xmm17, %xmm14 vpclmulqdq $17, %xmm10, %xmm4, %xmm10 vpclmulqdq $0, %xmm9, %xmm5, %xmm13 vpternlogq $150, %xmm12, %xmm15, %xmm13 vpclmulqdq $1, %xmm9, %xmm5, %xmm12 vpclmulqdq $16, %xmm9, %xmm5, %xmm15 vpternlogq $150, %xmm12, %xmm14, %xmm15 vpclmulqdq $17, %xmm9, %xmm5, %xmm9 vpternlogq $150, %xmm10, %xmm11, %xmm9 vpclmulqdq $0, %xmm1, %xmm6, %xmm10 vpclmulqdq $1, %xmm1, %xmm6, %xmm11 vpclmulqdq $16, %xmm1, %xmm6, %xmm12 vpternlogq $150, %xmm11, %xmm15, %xmm12 vpclmulqdq $17, %xmm1, %xmm6, %xmm1 vpslldq $8, %xmm12, %xmm11 vpternlogq $150, %xmm10, %xmm13, %xmm11 vpsrldq $8, %xmm12, %xmm10 vpclmulqdq $16, %xmm8, %xmm11, %xmm12 vpshufd $78, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $16, %xmm8, %xmm11, %xmm12 vpternlogq $150, %xmm1, %xmm9, %xmm12 vpshufd $78, %xmm11, %xmm1 vpternlogq $150, %xmm10, %xmm12, %xmm1 cmpq $95, %rdx ja .LBB1_17 cmpq $16, %rdx jae .LBB1_11 jmp .LBB1_7 .LBB1_18: testq %r10, %r10 jne .LBB1_25 jmp .LBB1_19 .LBB1_5: movq %r8, %rdx cmpq $16, %rdx jb .LBB1_7 .LBB1_11: vmovdqa 176(%rdi), %xmm0 leaq -16(%rdx), %rsi testb $16, %sil je .LBB1_12 cmpq $16, %rsi jae .LBB1_14 .LBB1_8: testq %rsi, %rsi je .LBB1_20 .LBB1_9: movl $-1, %edx bzhil %esi, %edx, %edx kmovd %edx, %k1 vmovdqu8 (%rcx), %xmm0 {%k1} {z} testq %r10, %r10 je .LBB1_10 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB1_22 vmovdqa 176(%rdi), %xmm2 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm0, %xmm2, %xmm1 vpclmulqdq $1, %xmm0, %xmm2, %xmm3 vpclmulqdq $16, %xmm0, %xmm2, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm2, %xmm0 vpslldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI1_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm2, %xmm0, %xmm1 jmp .LBB1_25 .LBB1_12: vmovdqu (%rcx), %xmm2 addq $16, %rcx vpshufb .LCPI1_2(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpbroadcastq .LCPI1_3(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm4 vpshufd $78, %xmm2, %xmm1 vpternlogq $150, %xmm3, %xmm4, %xmm1 movq %rsi, %rdx cmpq $16, %rsi jb .LBB1_8 .LBB1_14: vmovdqa .LCPI1_2(%rip), %xmm2 vpbroadcastq .LCPI1_3(%rip), %xmm3 .p2align 4, 0x90 .LBB1_15: vmovdqu (%rcx), %xmm4 vmovdqu 16(%rcx), %xmm5 vpshufb %xmm2, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpternlogq $150, %xmm1, %xmm6, %xmm7 vpshufd $78, %xmm4, %xmm1 addq $32, %rcx addq $-32, %rdx vpshufb %xmm2, %xmm5, %xmm4 vpternlogq $150, %xmm1, %xmm7, %xmm4 vpclmulqdq $0, %xmm4, %xmm0, %xmm1 vpclmulqdq $1, %xmm4, %xmm0, %xmm5 vpclmulqdq $16, %xmm4, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm4, %xmm0, %xmm4 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm1, %xmm1 vpsrldq $8, %xmm5, %xmm5 vpclmulqdq $16, %xmm3, %xmm1, %xmm6 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm6, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm6 vpxor %xmm4, %xmm6, %xmm4 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm5, %xmm4, %xmm1 cmpq $15, %rdx ja .LBB1_15 .LBB1_7: movq %rdx, %rsi testq %rsi, %rsi jne .LBB1_9 .LBB1_20: testq %r10, %r10 je .LBB1_19 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB1_22 .LBB1_25: movq 72(%rsp), %rsi vpshufb .LCPI1_0(%rip), %xmm21, %xmm0 vpaddd .LCPI1_1(%rip), %xmm0, %xmm2 cmpq $96, %r10 jb .LBB1_26 leaq 96(%r9), %rdx leaq 96(%rsi), %rax vmovdqa64 .LCPI1_2(%rip), %xmm31 vpshufb %xmm31, %xmm2, %xmm5 vpaddd .LCPI1_4(%rip), %xmm0, %xmm2 vpshufb %xmm31, %xmm2, %xmm6 vpaddd .LCPI1_5(%rip), %xmm0, %xmm2 vpshufb %xmm31, %xmm2, %xmm7 vpaddd .LCPI1_6(%rip), %xmm0, %xmm2 vpshufb %xmm31, %xmm2, %xmm8 vpaddd .LCPI1_7(%rip), %xmm0, %xmm2 vpshufb %xmm31, %xmm2, %xmm9 vpaddd .LCPI1_8(%rip), %xmm0, %xmm2 vpshufb %xmm31, %xmm2, %xmm10 vpaddd .LCPI1_9(%rip), %xmm0, %xmm2 vmovdqa64 (%rdi), %xmm24 vmovaps 16(%rdi), %xmm4 vmovdqa 32(%rdi), %xmm12 vmovdqa 48(%rdi), %xmm13 vpxorq %xmm5, %xmm24, %xmm0 vpxorq %xmm6, %xmm24, %xmm5 vpxorq %xmm7, %xmm24, %xmm6 vpxorq %xmm8, %xmm24, %xmm7 vpxorq %xmm9, %xmm24, %xmm8 vpxorq %xmm10, %xmm24, %xmm9 #APP vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm4, %xmm5, %xmm5 vaesenc %xmm4, %xmm6, %xmm6 vaesenc %xmm4, %xmm7, %xmm7 vaesenc %xmm4, %xmm8, %xmm8 vaesenc %xmm4, %xmm9, %xmm9 #NO_APP #APP vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm12, %xmm6, %xmm6 vaesenc %xmm12, %xmm7, %xmm7 vaesenc %xmm12, %xmm8, %xmm8 vaesenc %xmm12, %xmm9, %xmm9 #NO_APP #APP vaesenc %xmm13, %xmm0, %xmm0 vaesenc %xmm13, %xmm5, %xmm5 vaesenc %xmm13, %xmm6, %xmm6 vaesenc %xmm13, %xmm7, %xmm7 vaesenc %xmm13, %xmm8, %xmm8 vaesenc %xmm13, %xmm9, %xmm9 #NO_APP vmovdqa 64(%rdi), %xmm10 #APP vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm10, %xmm6, %xmm6 vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm10, %xmm8, %xmm8 vaesenc %xmm10, %xmm9, %xmm9 #NO_APP vmovdqa 80(%rdi), %xmm14 #APP vaesenc %xmm14, %xmm0, %xmm0 vaesenc %xmm14, %xmm5, %xmm5 vaesenc %xmm14, %xmm6, %xmm6 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovaps 96(%rdi), %xmm15 vmovaps %xmm15, -96(%rsp) #APP vaesenc %xmm15, %xmm0, %xmm0 vaesenc %xmm15, %xmm5, %xmm5 vaesenc %xmm15, %xmm6, %xmm6 vaesenc %xmm15, %xmm7, %xmm7 vaesenc %xmm15, %xmm8, %xmm8 vaesenc %xmm15, %xmm9, %xmm9 #NO_APP vmovaps 112(%rdi), %xmm15 vmovaps %xmm15, -112(%rsp) #APP vaesenc %xmm15, %xmm0, %xmm0 vaesenc %xmm15, %xmm5, %xmm5 vaesenc %xmm15, %xmm6, %xmm6 vaesenc %xmm15, %xmm7, %xmm7 vaesenc %xmm15, %xmm8, %xmm8 vaesenc %xmm15, %xmm9, %xmm9 #NO_APP vmovaps 128(%rdi), %xmm15 vmovaps %xmm15, %xmm25 #APP vaesenc %xmm15, %xmm0, %xmm0 vaesenc %xmm15, %xmm5, %xmm5 vaesenc %xmm15, %xmm6, %xmm6 vaesenc %xmm15, %xmm7, %xmm7 vaesenc %xmm15, %xmm8, %xmm8 vaesenc %xmm15, %xmm9, %xmm9 #NO_APP vmovdqa 144(%rdi), %xmm15 vmovdqa64 %xmm15, %xmm20 #APP vaesenc %xmm15, %xmm0, %xmm0 vaesenc %xmm15, %xmm5, %xmm5 vaesenc %xmm15, %xmm6, %xmm6 vaesenc %xmm15, %xmm7, %xmm7 vaesenc %xmm15, %xmm8, %xmm8 vaesenc %xmm15, %xmm9, %xmm9 #NO_APP vmovaps 160(%rdi), %xmm15 vmovaps %xmm15, %xmm23 #APP vaesenclast %xmm15, %xmm0, %xmm0 vaesenclast %xmm15, %xmm5, %xmm5 vaesenclast %xmm15, %xmm6, %xmm6 vaesenclast %xmm15, %xmm7, %xmm7 vaesenclast %xmm15, %xmm8, %xmm8 vaesenclast %xmm15, %xmm9, %xmm9 #NO_APP vpxor (%r9), %xmm0, %xmm15 vpxorq 16(%r9), %xmm5, %xmm22 vpxorq 32(%r9), %xmm6, %xmm26 vpxorq 48(%r9), %xmm7, %xmm27 vpxorq 64(%r9), %xmm8, %xmm28 vpxorq 80(%r9), %xmm9, %xmm29 vmovdqu %xmm15, (%rsi) vmovdqu64 %xmm22, 16(%rsi) vmovdqu64 %xmm26, 32(%rsi) vmovdqu64 %xmm27, 48(%rsi) leaq -96(%r10), %rcx vmovdqu64 %xmm28, 64(%rsi) vmovdqu64 %xmm29, 80(%rsi) cmpq $96, %rcx jb .LBB1_37 vmovdqa64 %xmm21, -128(%rsp) vmovaps 176(%rdi), %xmm0 vmovaps %xmm0, 32(%rsp) vmovaps 192(%rdi), %xmm0 vmovaps %xmm0, 16(%rsp) vmovaps 208(%rdi), %xmm0 vmovaps %xmm0, (%rsp) vmovaps 224(%rdi), %xmm0 vmovaps %xmm0, -16(%rsp) vmovaps 240(%rdi), %xmm0 vmovaps %xmm0, -32(%rsp) vmovdqa 256(%rdi), %xmm0 vmovdqa %xmm0, -48(%rsp) vmovaps %xmm4, -64(%rsp) vmovdqa %xmm12, -80(%rsp) vmovdqa64 %xmm13, %xmm21 vmovdqa64 %xmm10, %xmm16 vmovdqa64 %xmm14, %xmm18 vmovdqa64 -96(%rsp), %xmm17 vmovdqa64 -112(%rsp), %xmm19 .p2align 4, 0x90 .LBB1_35: vpshufb %xmm31, %xmm2, %xmm0 vpaddd .LCPI1_1(%rip), %xmm2, %xmm5 vpshufb %xmm31, %xmm5, %xmm5 vpaddd .LCPI1_4(%rip), %xmm2, %xmm6 vpshufb %xmm31, %xmm6, %xmm6 vpaddd .LCPI1_5(%rip), %xmm2, %xmm7 vpshufb %xmm31, %xmm7, %xmm7 vpaddd .LCPI1_6(%rip), %xmm2, %xmm8 vpshufb %xmm31, %xmm8, %xmm14 vpaddd .LCPI1_7(%rip), %xmm2, %xmm8 vpshufb %xmm31, %xmm8, %xmm30 vpshufb %xmm31, %xmm29, %xmm8 vpxorq %xmm0, %xmm24, %xmm10 vpxorq %xmm5, %xmm24, %xmm11 vpxorq %xmm6, %xmm24, %xmm12 vpxorq %xmm7, %xmm24, %xmm13 vpxorq %xmm14, %xmm24, %xmm14 vpxorq %xmm30, %xmm24, %xmm0 vmovaps -64(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm0, %xmm0 #NO_APP vpxor %xmm6, %xmm6, %xmm6 vpxor %xmm7, %xmm7, %xmm7 vpxor %xmm5, %xmm5, %xmm5 vmovaps 32(%rsp), %xmm3 vmovaps -80(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $17, %xmm3, %xmm8, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $1, %xmm3, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 #NO_APP vpshufb %xmm31, %xmm28, %xmm8 vmovaps 16(%rsp), %xmm3 vmovdqa64 %xmm21, %xmm4 #APP vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $17, %xmm3, %xmm8, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $1, %xmm3, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 #NO_APP vpshufb %xmm31, %xmm27, %xmm8 vmovaps (%rsp), %xmm3 vmovdqa64 %xmm16, %xmm4 #APP vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $17, %xmm3, %xmm8, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $1, %xmm3, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 #NO_APP vpshufb %xmm31, %xmm26, %xmm8 vmovdqa64 %xmm18, %xmm4 vmovaps -16(%rsp), %xmm3 #APP vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $17, %xmm3, %xmm8, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $1, %xmm3, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 #NO_APP vpshufb %xmm31, %xmm22, %xmm8 vmovaps -32(%rsp), %xmm3 vmovdqa64 %xmm17, %xmm4 #APP vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $17, %xmm3, %xmm8, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $1, %xmm3, %xmm8, %xmm9 vpxor %xmm7, %xmm9, %xmm7 #NO_APP vpshufb %xmm31, %xmm15, %xmm8 vpxor %xmm1, %xmm8, %xmm1 vmovdqa64 %xmm19, %xmm3 #APP vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm0, %xmm0 #NO_APP vmovdqa -48(%rsp), %xmm3 vmovaps %xmm25, %xmm4 #APP vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm1, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm3, %xmm1, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm3, %xmm1, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $1, %xmm3, %xmm1, %xmm8 vpxor %xmm7, %xmm8, %xmm7 #NO_APP vpxor %xmm3, %xmm3, %xmm3 vpunpcklqdq %xmm7, %xmm3, %xmm1 vpxor %xmm1, %xmm6, %xmm6 vpunpckhqdq %xmm3, %xmm7, %xmm1 vmovdqa64 %xmm20, %xmm3 #APP vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm0, %xmm0 #NO_APP vmovaps %xmm23, %xmm3 #APP vaesenclast %xmm3, %xmm10, %xmm10 vaesenclast %xmm3, %xmm11, %xmm11 vaesenclast %xmm3, %xmm12, %xmm12 vaesenclast %xmm3, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 vaesenclast %xmm3, %xmm0, %xmm0 #NO_APP vpxor (%rdx), %xmm10, %xmm15 vpxorq 16(%rdx), %xmm11, %xmm22 vpxorq 32(%rdx), %xmm12, %xmm26 vpxorq 48(%rdx), %xmm13, %xmm27 vpxorq 64(%rdx), %xmm14, %xmm28 vpxorq 80(%rdx), %xmm0, %xmm29 vpxor %xmm1, %xmm5, %xmm1 vpbroadcastq .LCPI1_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm6, %xmm0 vpshufd $78, %xmm6, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm0, %xmm5 vpshufd $78, %xmm0, %xmm0 vpternlogq $150, %xmm5, %xmm0, %xmm1 addq $96, %rdx vmovdqu %xmm15, (%rax) vmovdqu64 %xmm22, 16(%rax) vmovdqu64 %xmm26, 32(%rax) vmovdqu64 %xmm27, 48(%rax) vmovdqu64 %xmm28, 64(%rax) vmovdqu64 %xmm29, 80(%rax) addq $96, %rax addq $-96, %rcx vpaddd .LCPI1_8(%rip), %xmm2, %xmm2 cmpq $95, %rcx ja .LBB1_35 vmovdqa64 -128(%rsp), %xmm21 .LBB1_37: vpshufb %xmm31, %xmm15, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpshufb %xmm31, %xmm22, %xmm1 vpshufb %xmm31, %xmm26, %xmm4 vpshufb %xmm31, %xmm27, %xmm5 vpshufb %xmm31, %xmm28, %xmm6 vpshufb %xmm31, %xmm29, %xmm3 vmovdqa 176(%rdi), %xmm7 vmovdqa 192(%rdi), %xmm8 vmovdqa 208(%rdi), %xmm9 vmovdqa 224(%rdi), %xmm10 vmovdqa 240(%rdi), %xmm11 vmovdqa 256(%rdi), %xmm12 vpclmulqdq $0, %xmm3, %xmm7, %xmm13 vpclmulqdq $1, %xmm3, %xmm7, %xmm14 vpclmulqdq $16, %xmm3, %xmm7, %xmm15 vpxor %xmm14, %xmm15, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm3 vpclmulqdq $0, %xmm6, %xmm8, %xmm7 vpclmulqdq $1, %xmm6, %xmm8, %xmm15 vpclmulqdq $16, %xmm6, %xmm8, %xmm17 vpternlogq $150, %xmm15, %xmm14, %xmm17 vpclmulqdq $17, %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm5, %xmm9, %xmm8 vpternlogq $150, %xmm13, %xmm7, %xmm8 vpclmulqdq $1, %xmm5, %xmm9, %xmm7 vpclmulqdq $16, %xmm5, %xmm9, %xmm13 vpternlogq $150, %xmm7, %xmm17, %xmm13 vpclmulqdq $17, %xmm5, %xmm9, %xmm5 vpternlogq $150, %xmm3, %xmm6, %xmm5 vpclmulqdq $0, %xmm4, %xmm10, %xmm3 vpclmulqdq $1, %xmm4, %xmm10, %xmm6 vpclmulqdq $16, %xmm4, %xmm10, %xmm7 vpternlogq $150, %xmm6, %xmm13, %xmm7 vpclmulqdq $17, %xmm4, %xmm10, %xmm4 vpclmulqdq $0, %xmm1, %xmm11, %xmm6 vpternlogq $150, %xmm3, %xmm8, %xmm6 vpclmulqdq $1, %xmm1, %xmm11, %xmm3 vpclmulqdq $16, %xmm1, %xmm11, %xmm8 vpternlogq $150, %xmm3, %xmm7, %xmm8 vpclmulqdq $17, %xmm1, %xmm11, %xmm1 vpternlogq $150, %xmm4, %xmm5, %xmm1 vpclmulqdq $0, %xmm0, %xmm12, %xmm3 vpclmulqdq $1, %xmm0, %xmm12, %xmm4 vpclmulqdq $16, %xmm0, %xmm12, %xmm5 vpternlogq $150, %xmm4, %xmm8, %xmm5 vpclmulqdq $17, %xmm0, %xmm12, %xmm0 vpslldq $8, %xmm5, %xmm4 vpternlogq $150, %xmm3, %xmm6, %xmm4 vpsrldq $8, %xmm5, %xmm3 vpbroadcastq .LCPI1_3(%rip), %xmm5 vpclmulqdq $16, %xmm5, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm5, %xmm4, %xmm5 vpternlogq $150, %xmm0, %xmm1, %xmm5 vpshufd $78, %xmm4, %xmm1 vpternlogq $150, %xmm3, %xmm5, %xmm1 movq %rax, %rsi movq %rdx, %r9 cmpq $16, %rcx jae .LBB1_38 .LBB1_28: movq %rsi, %rax movq %r9, %rdx jmp .LBB1_29 .LBB1_26: movq %r10, %rcx cmpq $16, %rcx jb .LBB1_28 .LBB1_38: vmovdqa (%rdi), %xmm0 vmovdqa 16(%rdi), %xmm3 vmovdqa 32(%rdi), %xmm4 vmovdqa 48(%rdi), %xmm5 vmovdqa 64(%rdi), %xmm6 vmovdqa 80(%rdi), %xmm7 vmovdqa 96(%rdi), %xmm8 vmovdqa 112(%rdi), %xmm9 vmovdqa 128(%rdi), %xmm10 vmovdqa 144(%rdi), %xmm11 vmovdqa 160(%rdi), %xmm12 vmovdqa 176(%rdi), %xmm13 vmovdqa .LCPI1_2(%rip), %xmm14 vpmovsxbq .LCPI1_12(%rip), %xmm15 vpbroadcastq .LCPI1_3(%rip), %xmm17 .p2align 4, 0x90 .LBB1_39: leaq 16(%r9), %rdx leaq 16(%rsi), %rax addq $-16, %rcx vpshufb %xmm14, %xmm2, %xmm18 vpxorq %xmm18, %xmm0, %xmm18 vaesenc %xmm3, %xmm18, %xmm18 vaesenc %xmm4, %xmm18, %xmm18 vaesenc %xmm5, %xmm18, %xmm18 vaesenc %xmm6, %xmm18, %xmm18 vaesenc %xmm7, %xmm18, %xmm18 vaesenc %xmm8, %xmm18, %xmm18 vaesenc %xmm9, %xmm18, %xmm18 vaesenc %xmm10, %xmm18, %xmm18 vaesenc %xmm11, %xmm18, %xmm18 vaesenclast %xmm12, %xmm18, %xmm18 vpaddd %xmm2, %xmm15, %xmm2 vpxorq (%r9), %xmm18, %xmm18 vmovdqu64 %xmm18, (%rsi) vpshufb %xmm14, %xmm18, %xmm18 vpxorq %xmm18, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm13, %xmm18 vpclmulqdq $1, %xmm1, %xmm13, %xmm19 vpclmulqdq $16, %xmm1, %xmm13, %xmm20 vpxorq %xmm19, %xmm20, %xmm19 vpclmulqdq $17, %xmm1, %xmm13, %xmm1 vpslldq $8, %xmm19, %xmm20 vpxorq %xmm20, %xmm18, %xmm18 vpsrldq $8, %xmm19, %xmm19 vpclmulqdq $16, %xmm17, %xmm18, %xmm20 vpshufd $78, %xmm18, %xmm18 vpxorq %xmm18, %xmm20, %xmm18 vpclmulqdq $16, %xmm17, %xmm18, %xmm20 vpxorq %xmm1, %xmm20, %xmm20 vpshufd $78, %xmm18, %xmm1 vpternlogq $150, %xmm19, %xmm20, %xmm1 movq %rax, %rsi movq %rdx, %r9 cmpq $15, %rcx ja .LBB1_39 .LBB1_29: testq %rcx, %rcx je .LBB1_19 movl $-1, %esi bzhil %ecx, %esi, %ecx kmovd %ecx, %k1 vmovdqu8 (%rdx), %xmm0 {%k1} {z} vpshufb .LCPI1_2(%rip), %xmm2, %xmm2 vpxor (%rdi), %xmm2, %xmm2 vaesenc 16(%rdi), %xmm2, %xmm2 vaesenc 32(%rdi), %xmm2, %xmm2 vaesenc 48(%rdi), %xmm2, %xmm2 vaesenc 64(%rdi), %xmm2, %xmm2 vaesenc 80(%rdi), %xmm2, %xmm2 vaesenc 96(%rdi), %xmm2, %xmm2 vaesenc 112(%rdi), %xmm2, %xmm2 vaesenc 128(%rdi), %xmm2, %xmm2 vaesenc 144(%rdi), %xmm2, %xmm2 vaesenclast 160(%rdi), %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vmovdqu8 %xmm0, (%rax) {%k1} testq %r10, %r10 je .LBB1_10 vmovdqu8 %xmm0, %xmm0 {%k1} {z} vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vmovdqa 176(%rdi), %xmm2 jmp .LBB1_32 .LBB1_10: vmovdqa 176(%rdi), %xmm2 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 .LBB1_32: vpxor %xmm0, %xmm1, %xmm3 vpclmulqdq $0, %xmm3, %xmm2, %xmm0 vpclmulqdq $1, %xmm3, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm3, %xmm2, %xmm2 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm2 vpbroadcastq .LCPI1_3(%rip), %xmm1 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm1 vpternlogq $150, %xmm3, %xmm2, %xmm1 .LBB1_19: movq 88(%rsp), %rax vmovdqa 176(%rdi), %xmm0 vmovq %r8, %xmm2 vmovq %r10, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI1_3(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpxorq (%rdi), %xmm21, %xmm4 vaesenc 16(%rdi), %xmm4, %xmm4 vaesenc 32(%rdi), %xmm4, %xmm4 vaesenc 48(%rdi), %xmm4, %xmm4 vaesenc 64(%rdi), %xmm4, %xmm4 vaesenc 80(%rdi), %xmm4, %xmm4 vaesenc 96(%rdi), %xmm4, %xmm4 vaesenc 112(%rdi), %xmm4, %xmm4 vaesenc 128(%rdi), %xmm4, %xmm4 vaesenc 144(%rdi), %xmm4, %xmm4 vaesenclast 160(%rdi), %xmm4, %xmm4 vpxor %xmm0, %xmm2, %xmm0 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpshufb .LCPI1_10(%rip), %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpshufb .LCPI1_11(%rip), %xmm1, %xmm1 vpternlogq $150, %xmm0, %xmm4, %xmm1 vmovdqu %xmm1, (%rax) movl $1, %eax .LBB1_22: addq $48, %rsp .cfi_def_cfa_offset 16 popq %rbx .cfi_def_cfa_offset 8 retq .Lfunc_end1: .size haberdashery_aes128gcm_tigerlake_encrypt, .Lfunc_end1-haberdashery_aes128gcm_tigerlake_encrypt .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_1: .long 1 .long 0 .long 0 .long 0 .LCPI2_2: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_4: .long 2 .long 0 .long 0 .long 0 .LCPI2_5: .long 3 .long 0 .long 0 .long 0 .LCPI2_6: .long 4 .long 0 .long 0 .long 0 .LCPI2_7: .long 5 .long 0 .long 0 .long 0 .LCPI2_8: .long 6 .long 0 .long 0 .long 0 .LCPI2_9: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI2_10: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI2_3: .quad -4467570830351532032 .section .rodata,"a",@progbits .LCPI2_11: .byte 1 .byte 0 .section .text.haberdashery_aes128gcm_tigerlake_decrypt,"ax",@progbits .globl haberdashery_aes128gcm_tigerlake_decrypt .p2align 4, 0x90 .type haberdashery_aes128gcm_tigerlake_decrypt,@function haberdashery_aes128gcm_tigerlake_decrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r14 .cfi_def_cfa_offset 24 pushq %rbx .cfi_def_cfa_offset 32 subq $32, %rsp .cfi_def_cfa_offset 64 .cfi_offset %rbx, -32 .cfi_offset %r14, -24 .cfi_offset %rbp, -16 movq 64(%rsp), %r10 xorl %eax, %eax cmpq 96(%rsp), %r10 jne .LBB2_5 cmpq $16, 80(%rsp) setne %r11b movabsq $2305843009213693950, %rbx cmpq %rbx, %r8 seta %bl movq %r10, %r14 shrq $5, %r14 cmpq $2147483647, %r14 setae %bpl orb %r11b, %bl orb %bpl, %bl cmpq $12, %rdx setne %dl orb %bl, %dl jne .LBB2_5 vmovd (%rsi), %xmm0 vpinsrd $1, 4(%rsi), %xmm0, %xmm0 vpinsrd $2, 8(%rsi), %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm16 vpxor %xmm1, %xmm1, %xmm1 testq %r8, %r8 je .LBB2_3 cmpq $96, %r8 jb .LBB2_7 vmovdqa 176(%rdi), %xmm0 vmovdqa 192(%rdi), %xmm2 vmovdqa 208(%rdi), %xmm3 vmovdqa 224(%rdi), %xmm4 vmovdqa 240(%rdi), %xmm5 vmovdqa 256(%rdi), %xmm6 vmovdqa .LCPI2_2(%rip), %xmm7 vpbroadcastq .LCPI2_3(%rip), %xmm8 movq %r8, %rdx .p2align 4, 0x90 .LBB2_19: vmovdqu (%rcx), %xmm9 vmovdqu 16(%rcx), %xmm10 vmovdqu 32(%rcx), %xmm11 vmovdqu 48(%rcx), %xmm12 vmovdqu 64(%rcx), %xmm13 vmovdqu 80(%rcx), %xmm14 addq $96, %rcx addq $-96, %rdx vpshufb %xmm7, %xmm9, %xmm9 vpxor %xmm1, %xmm9, %xmm1 vpshufb %xmm7, %xmm10, %xmm9 vpshufb %xmm7, %xmm11, %xmm10 vpshufb %xmm7, %xmm12, %xmm11 vpshufb %xmm7, %xmm13, %xmm12 vpshufb %xmm7, %xmm14, %xmm13 vpclmulqdq $0, %xmm13, %xmm0, %xmm14 vpclmulqdq $1, %xmm13, %xmm0, %xmm15 vpclmulqdq $16, %xmm13, %xmm0, %xmm17 vpxorq %xmm15, %xmm17, %xmm15 vpclmulqdq $17, %xmm13, %xmm0, %xmm13 vpclmulqdq $0, %xmm12, %xmm2, %xmm17 vpclmulqdq $1, %xmm12, %xmm2, %xmm18 vpclmulqdq $16, %xmm12, %xmm2, %xmm19 vpternlogq $150, %xmm18, %xmm15, %xmm19 vpclmulqdq $17, %xmm12, %xmm2, %xmm12 vpclmulqdq $0, %xmm11, %xmm3, %xmm15 vpternlogq $150, %xmm14, %xmm17, %xmm15 vpclmulqdq $1, %xmm11, %xmm3, %xmm14 vpclmulqdq $16, %xmm11, %xmm3, %xmm17 vpternlogq $150, %xmm14, %xmm19, %xmm17 vpclmulqdq $17, %xmm11, %xmm3, %xmm11 vpternlogq $150, %xmm13, %xmm12, %xmm11 vpclmulqdq $0, %xmm10, %xmm4, %xmm12 vpclmulqdq $1, %xmm10, %xmm4, %xmm13 vpclmulqdq $16, %xmm10, %xmm4, %xmm14 vpternlogq $150, %xmm13, %xmm17, %xmm14 vpclmulqdq $17, %xmm10, %xmm4, %xmm10 vpclmulqdq $0, %xmm9, %xmm5, %xmm13 vpternlogq $150, %xmm12, %xmm15, %xmm13 vpclmulqdq $1, %xmm9, %xmm5, %xmm12 vpclmulqdq $16, %xmm9, %xmm5, %xmm15 vpternlogq $150, %xmm12, %xmm14, %xmm15 vpclmulqdq $17, %xmm9, %xmm5, %xmm9 vpternlogq $150, %xmm10, %xmm11, %xmm9 vpclmulqdq $0, %xmm1, %xmm6, %xmm10 vpclmulqdq $1, %xmm1, %xmm6, %xmm11 vpclmulqdq $16, %xmm1, %xmm6, %xmm12 vpternlogq $150, %xmm11, %xmm15, %xmm12 vpclmulqdq $17, %xmm1, %xmm6, %xmm1 vpslldq $8, %xmm12, %xmm11 vpternlogq $150, %xmm10, %xmm13, %xmm11 vpsrldq $8, %xmm12, %xmm10 vpclmulqdq $16, %xmm8, %xmm11, %xmm12 vpshufd $78, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $16, %xmm8, %xmm11, %xmm12 vpternlogq $150, %xmm1, %xmm9, %xmm12 vpshufd $78, %xmm11, %xmm1 vpternlogq $150, %xmm10, %xmm12, %xmm1 cmpq $95, %rdx ja .LBB2_19 cmpq $16, %rdx jae .LBB2_13 jmp .LBB2_9 .LBB2_7: movq %r8, %rdx cmpq $16, %rdx jb .LBB2_9 .LBB2_13: vmovdqa 176(%rdi), %xmm0 leaq -16(%rdx), %rsi testb $16, %sil je .LBB2_14 cmpq $16, %rsi jae .LBB2_16 .LBB2_10: testq %rsi, %rsi je .LBB2_3 .LBB2_11: movl $-1, %edx bzhil %esi, %edx, %edx kmovd %edx, %k1 vmovdqu8 (%rcx), %xmm0 {%k1} {z} testq %r10, %r10 je .LBB2_12 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB2_5 vmovdqa 176(%rdi), %xmm2 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm0, %xmm2, %xmm1 vpclmulqdq $1, %xmm0, %xmm2, %xmm3 vpclmulqdq $16, %xmm0, %xmm2, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm2, %xmm0 vpslldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI2_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm2, %xmm0, %xmm1 jmp .LBB2_22 .LBB2_14: vmovdqu (%rcx), %xmm2 addq $16, %rcx vpshufb .LCPI2_2(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpbroadcastq .LCPI2_3(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm4 vpshufd $78, %xmm2, %xmm1 vpternlogq $150, %xmm3, %xmm4, %xmm1 movq %rsi, %rdx cmpq $16, %rsi jb .LBB2_10 .LBB2_16: vmovdqa .LCPI2_2(%rip), %xmm2 vpbroadcastq .LCPI2_3(%rip), %xmm3 .p2align 4, 0x90 .LBB2_17: vmovdqu (%rcx), %xmm4 vmovdqu 16(%rcx), %xmm5 vpshufb %xmm2, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpternlogq $150, %xmm1, %xmm6, %xmm7 vpshufd $78, %xmm4, %xmm1 addq $32, %rcx addq $-32, %rdx vpshufb %xmm2, %xmm5, %xmm4 vpternlogq $150, %xmm1, %xmm7, %xmm4 vpclmulqdq $0, %xmm4, %xmm0, %xmm1 vpclmulqdq $1, %xmm4, %xmm0, %xmm5 vpclmulqdq $16, %xmm4, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm4, %xmm0, %xmm4 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm1, %xmm1 vpsrldq $8, %xmm5, %xmm5 vpclmulqdq $16, %xmm3, %xmm1, %xmm6 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm6, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm6 vpxor %xmm4, %xmm6, %xmm4 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm5, %xmm4, %xmm1 cmpq $15, %rdx ja .LBB2_17 .LBB2_9: movq %rdx, %rsi testq %rsi, %rsi jne .LBB2_11 .LBB2_3: testq %r10, %r10 je .LBB2_29 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB2_5 .LBB2_22: movq 88(%rsp), %rax vpshufb .LCPI2_0(%rip), %xmm16, %xmm0 vpaddd .LCPI2_1(%rip), %xmm0, %xmm2 cmpq $96, %r10 jb .LBB2_23 vmovdqa64 %xmm16, -128(%rsp) vmovdqa (%rdi), %xmm3 vmovaps 16(%rdi), %xmm0 vmovaps %xmm0, 16(%rsp) vmovaps 32(%rdi), %xmm0 vmovaps %xmm0, (%rsp) vmovaps 48(%rdi), %xmm0 vmovaps %xmm0, -16(%rsp) vmovaps 64(%rdi), %xmm0 vmovaps %xmm0, -32(%rsp) vmovaps 80(%rdi), %xmm0 vmovaps %xmm0, -48(%rsp) vmovaps 96(%rdi), %xmm0 vmovaps %xmm0, -64(%rsp) vmovaps 112(%rdi), %xmm0 vmovaps %xmm0, -80(%rsp) vmovaps 128(%rdi), %xmm0 vmovaps %xmm0, -96(%rsp) vmovdqa 144(%rdi), %xmm0 vmovdqa %xmm0, -112(%rsp) vmovdqa64 160(%rdi), %xmm19 vmovapd 176(%rdi), %xmm20 vmovdqa64 192(%rdi), %xmm21 vmovaps 208(%rdi), %xmm22 vmovaps 224(%rdi), %xmm23 vmovdqa64 240(%rdi), %xmm16 vmovdqa64 256(%rdi), %xmm18 vmovdqa64 .LCPI2_2(%rip), %xmm17 vpxord %xmm24, %xmm24, %xmm24 vpbroadcastq .LCPI2_3(%rip), %xmm25 movq %r10, %rcx .p2align 4, 0x90 .LBB2_31: vmovdqu64 (%r9), %xmm26 vmovdqu64 16(%r9), %xmm27 vmovdqu64 32(%r9), %xmm28 vmovdqu64 48(%r9), %xmm29 vmovdqu64 64(%r9), %xmm30 vmovdqu64 80(%r9), %xmm31 vpshufb %xmm17, %xmm2, %xmm7 vpaddd .LCPI2_1(%rip), %xmm2, %xmm8 vpshufb %xmm17, %xmm8, %xmm8 vpaddd .LCPI2_4(%rip), %xmm2, %xmm9 vpshufb %xmm17, %xmm9, %xmm9 vpaddd .LCPI2_5(%rip), %xmm2, %xmm10 vpshufb %xmm17, %xmm10, %xmm10 vpaddd .LCPI2_6(%rip), %xmm2, %xmm11 vpshufb %xmm17, %xmm11, %xmm11 vpaddd .LCPI2_7(%rip), %xmm2, %xmm12 vpshufb %xmm17, %xmm12, %xmm12 vpshufb %xmm17, %xmm31, %xmm0 vpxor %xmm7, %xmm3, %xmm7 vpxor %xmm3, %xmm8, %xmm8 vpxor %xmm3, %xmm9, %xmm9 vpxor %xmm3, %xmm10, %xmm10 vpxor %xmm3, %xmm11, %xmm11 vpxor %xmm3, %xmm12, %xmm12 vmovaps 16(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm7, %xmm7 vaesenc %xmm4, %xmm8, %xmm8 vaesenc %xmm4, %xmm9, %xmm9 vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 #NO_APP vpxor %xmm14, %xmm14, %xmm14 vpxor %xmm15, %xmm15, %xmm15 vpxor %xmm13, %xmm13, %xmm13 vmovaps (%rsp), %xmm5 vmovapd %xmm20, %xmm6 #APP vaesenc %xmm5, %xmm7, %xmm7 vaesenc %xmm5, %xmm8, %xmm8 vaesenc %xmm5, %xmm9, %xmm9 vaesenc %xmm5, %xmm10, %xmm10 vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm5, %xmm12, %xmm12 vpclmulqdq $16, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm15, %xmm15 vpclmulqdq $0, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm14, %xmm14 vpclmulqdq $17, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm13, %xmm13 vpclmulqdq $1, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm15, %xmm15 #NO_APP vpshufb %xmm17, %xmm30, %xmm0 vmovaps -16(%rsp), %xmm5 vmovdqa64 %xmm21, %xmm6 #APP vaesenc %xmm5, %xmm7, %xmm7 vaesenc %xmm5, %xmm8, %xmm8 vaesenc %xmm5, %xmm9, %xmm9 vaesenc %xmm5, %xmm10, %xmm10 vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm5, %xmm12, %xmm12 vpclmulqdq $16, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm15, %xmm15 vpclmulqdq $0, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm14, %xmm14 vpclmulqdq $17, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm13, %xmm13 vpclmulqdq $1, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm15, %xmm15 #NO_APP vpshufb %xmm17, %xmm29, %xmm0 vmovaps -32(%rsp), %xmm5 vmovaps %xmm22, %xmm6 #APP vaesenc %xmm5, %xmm7, %xmm7 vaesenc %xmm5, %xmm8, %xmm8 vaesenc %xmm5, %xmm9, %xmm9 vaesenc %xmm5, %xmm10, %xmm10 vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm5, %xmm12, %xmm12 vpclmulqdq $16, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm15, %xmm15 vpclmulqdq $0, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm14, %xmm14 vpclmulqdq $17, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm13, %xmm13 vpclmulqdq $1, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm15, %xmm15 #NO_APP vpshufb %xmm17, %xmm28, %xmm0 vmovaps -48(%rsp), %xmm5 vmovaps %xmm23, %xmm6 #APP vaesenc %xmm5, %xmm7, %xmm7 vaesenc %xmm5, %xmm8, %xmm8 vaesenc %xmm5, %xmm9, %xmm9 vaesenc %xmm5, %xmm10, %xmm10 vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm5, %xmm12, %xmm12 vpclmulqdq $16, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm15, %xmm15 vpclmulqdq $0, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm14, %xmm14 vpclmulqdq $17, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm13, %xmm13 vpclmulqdq $1, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm15, %xmm15 #NO_APP vpshufb %xmm17, %xmm27, %xmm0 vmovaps -64(%rsp), %xmm5 vmovdqa64 %xmm16, %xmm6 #APP vaesenc %xmm5, %xmm7, %xmm7 vaesenc %xmm5, %xmm8, %xmm8 vaesenc %xmm5, %xmm9, %xmm9 vaesenc %xmm5, %xmm10, %xmm10 vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm5, %xmm12, %xmm12 vpclmulqdq $16, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm15, %xmm15 vpclmulqdq $0, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm14, %xmm14 vpclmulqdq $17, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm13, %xmm13 vpclmulqdq $1, %xmm6, %xmm0, %xmm4 vpxor %xmm4, %xmm15, %xmm15 #NO_APP vpshufb %xmm17, %xmm26, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vmovaps -80(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm7, %xmm7 vaesenc %xmm1, %xmm8, %xmm8 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 #NO_APP vmovaps -96(%rsp), %xmm4 vmovdqa64 %xmm18, %xmm5 #APP vaesenc %xmm4, %xmm7, %xmm7 vaesenc %xmm4, %xmm8, %xmm8 vaesenc %xmm4, %xmm9, %xmm9 vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 vpclmulqdq $16, %xmm5, %xmm0, %xmm1 vpxor %xmm1, %xmm15, %xmm15 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm1, %xmm14, %xmm14 vpclmulqdq $17, %xmm5, %xmm0, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpclmulqdq $1, %xmm5, %xmm0, %xmm1 vpxor %xmm1, %xmm15, %xmm15 #NO_APP vpunpcklqdq %xmm15, %xmm24, %xmm0 vpxor %xmm0, %xmm14, %xmm0 vpunpckhqdq %xmm24, %xmm15, %xmm1 vpxor %xmm1, %xmm13, %xmm1 vmovaps -112(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm7, %xmm7 vaesenc %xmm4, %xmm8, %xmm8 vaesenc %xmm4, %xmm9, %xmm9 vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 #NO_APP vmovdqa64 %xmm19, %xmm4 #APP vaesenclast %xmm4, %xmm7, %xmm7 vaesenclast %xmm4, %xmm8, %xmm8 vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm4, %xmm10, %xmm10 vaesenclast %xmm4, %xmm11, %xmm11 vaesenclast %xmm4, %xmm12, %xmm12 #NO_APP vpxorq %xmm26, %xmm7, %xmm4 vpxorq %xmm27, %xmm8, %xmm7 vpxorq %xmm28, %xmm9, %xmm8 vpxorq %xmm29, %xmm10, %xmm9 vpxorq %xmm30, %xmm11, %xmm10 vpxorq %xmm31, %xmm12, %xmm11 vpclmulqdq $16, %xmm25, %xmm0, %xmm12 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm0 vmovdqu %xmm4, (%rax) vmovdqu %xmm7, 16(%rax) vmovdqu %xmm8, 32(%rax) vmovdqu %xmm9, 48(%rax) vmovdqu %xmm10, 64(%rax) vmovdqu %xmm11, 80(%rax) vpclmulqdq $16, %xmm25, %xmm0, %xmm4 vpshufd $78, %xmm0, %xmm0 vpternlogq $150, %xmm4, %xmm0, %xmm1 addq $96, %r9 addq $96, %rax addq $-96, %rcx vpaddd .LCPI2_8(%rip), %xmm2, %xmm2 cmpq $95, %rcx ja .LBB2_31 vmovdqa64 -128(%rsp), %xmm16 cmpq $16, %rcx jae .LBB2_33 .LBB2_25: movq %rax, %rdx jmp .LBB2_26 .LBB2_23: movq %r10, %rcx cmpq $16, %rcx jb .LBB2_25 .LBB2_33: vmovdqa 176(%rdi), %xmm0 vmovdqa (%rdi), %xmm3 vmovdqa 16(%rdi), %xmm4 vmovdqa 32(%rdi), %xmm5 vmovdqa 48(%rdi), %xmm6 vmovdqa 64(%rdi), %xmm7 vmovdqa 80(%rdi), %xmm8 vmovdqa 96(%rdi), %xmm9 vmovdqa 112(%rdi), %xmm10 vmovdqa 128(%rdi), %xmm11 vmovdqa 144(%rdi), %xmm12 vmovdqa 160(%rdi), %xmm13 vmovdqa .LCPI2_2(%rip), %xmm14 vpbroadcastq .LCPI2_3(%rip), %xmm15 vpmovsxbq .LCPI2_11(%rip), %xmm17 .p2align 4, 0x90 .LBB2_34: leaq 16(%rax), %rdx vmovdqu64 (%r9), %xmm18 addq $-16, %rcx addq $16, %r9 vpshufb %xmm14, %xmm18, %xmm19 vpxorq %xmm19, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm19 vpclmulqdq $1, %xmm1, %xmm0, %xmm20 vpclmulqdq $16, %xmm1, %xmm0, %xmm21 vpxorq %xmm20, %xmm21, %xmm20 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm20, %xmm21 vpxorq %xmm21, %xmm19, %xmm19 vpsrldq $8, %xmm20, %xmm20 vpclmulqdq $16, %xmm15, %xmm19, %xmm21 vpshufd $78, %xmm19, %xmm19 vpxorq %xmm19, %xmm21, %xmm19 vpclmulqdq $16, %xmm15, %xmm19, %xmm21 vpxorq %xmm1, %xmm21, %xmm21 vpshufd $78, %xmm19, %xmm1 vpternlogq $150, %xmm20, %xmm21, %xmm1 vpshufb %xmm14, %xmm2, %xmm19 vpxorq %xmm19, %xmm3, %xmm19 vaesenc %xmm4, %xmm19, %xmm19 vaesenc %xmm5, %xmm19, %xmm19 vaesenc %xmm6, %xmm19, %xmm19 vaesenc %xmm7, %xmm19, %xmm19 vaesenc %xmm8, %xmm19, %xmm19 vaesenc %xmm9, %xmm19, %xmm19 vaesenc %xmm10, %xmm19, %xmm19 vaesenc %xmm11, %xmm19, %xmm19 vaesenc %xmm12, %xmm19, %xmm19 vaesenclast %xmm13, %xmm19, %xmm19 vpaddd %xmm17, %xmm2, %xmm2 vpxorq %xmm18, %xmm19, %xmm18 vmovdqu64 %xmm18, (%rax) movq %rdx, %rax cmpq $15, %rcx ja .LBB2_34 .LBB2_26: testq %rcx, %rcx je .LBB2_29 movl $-1, %eax bzhil %ecx, %eax, %eax kmovd %eax, %k1 vmovdqu8 (%r9), %xmm0 {%k1} {z} vmovdqa .LCPI2_2(%rip), %xmm3 vpshufb %xmm3, %xmm2, %xmm2 vpxor (%rdi), %xmm2, %xmm2 vaesenc 16(%rdi), %xmm2, %xmm2 vaesenc 32(%rdi), %xmm2, %xmm2 vaesenc 48(%rdi), %xmm2, %xmm2 vaesenc 64(%rdi), %xmm2, %xmm2 vaesenc 80(%rdi), %xmm2, %xmm2 vaesenc 96(%rdi), %xmm2, %xmm2 vaesenc 112(%rdi), %xmm2, %xmm2 vaesenc 128(%rdi), %xmm2, %xmm2 vaesenc 144(%rdi), %xmm2, %xmm2 vaesenclast 160(%rdi), %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm2 vmovdqu8 %xmm2, (%rdx) {%k1} vpshufb %xmm3, %xmm0, %xmm0 vmovdqa 176(%rdi), %xmm3 jmp .LBB2_28 .LBB2_12: vmovdqa 176(%rdi), %xmm3 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 .LBB2_28: vpxor %xmm0, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm3, %xmm0 vpclmulqdq $1, %xmm1, %xmm3, %xmm2 vpclmulqdq $16, %xmm1, %xmm3, %xmm4 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $17, %xmm1, %xmm3, %xmm1 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsrldq $8, %xmm2, %xmm2 vpbroadcastq .LCPI2_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm0, %xmm4 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm0, %xmm3 vpxor %xmm1, %xmm3, %xmm3 vpshufd $78, %xmm0, %xmm1 vpternlogq $150, %xmm2, %xmm3, %xmm1 .LBB2_29: movq 72(%rsp), %rax vmovdqa 176(%rdi), %xmm0 vmovq %r8, %xmm2 vmovq %r10, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI2_3(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpxorq (%rdi), %xmm16, %xmm4 vaesenc 16(%rdi), %xmm4, %xmm4 vaesenc 32(%rdi), %xmm4, %xmm4 vaesenc 48(%rdi), %xmm4, %xmm4 vaesenc 64(%rdi), %xmm4, %xmm4 vaesenc 80(%rdi), %xmm4, %xmm4 vaesenc 96(%rdi), %xmm4, %xmm4 vaesenc 112(%rdi), %xmm4, %xmm4 vaesenc 128(%rdi), %xmm4, %xmm4 vaesenc 144(%rdi), %xmm4, %xmm4 vaesenclast 160(%rdi), %xmm4, %xmm4 vpshufb .LCPI2_9(%rip), %xmm1, %xmm1 vpxor %xmm0, %xmm2, %xmm0 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpshufb .LCPI2_10(%rip), %xmm3, %xmm2 vpternlogq $150, %xmm0, %xmm1, %xmm2 vpternlogq $150, (%rax), %xmm4, %xmm2 xorl %eax, %eax vptest %xmm2, %xmm2 sete %al .LBB2_5: addq $32, %rsp .cfi_def_cfa_offset 32 popq %rbx .cfi_def_cfa_offset 24 popq %r14 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end2: .size haberdashery_aes128gcm_tigerlake_decrypt, .Lfunc_end2-haberdashery_aes128gcm_tigerlake_decrypt .cfi_endproc .section .text.haberdashery_aes128gcm_tigerlake_is_supported,"ax",@progbits .globl haberdashery_aes128gcm_tigerlake_is_supported .p2align 4, 0x90 .type haberdashery_aes128gcm_tigerlake_is_supported,@function haberdashery_aes128gcm_tigerlake_is_supported: .cfi_startproc xorl %esi, %esi movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rdi cpuid xchgq %rbx, %rdi #NO_APP movl %ecx, %edi movl %edx, %r8d notl %r8d notl %edi xorl %ecx, %ecx movl $7, %eax #APP movq %rbx, %r9 cpuid xchgq %rbx, %r9 #NO_APP andl $1993871875, %edi andl $125829120, %r8d orl %edi, %r8d jne .LBB3_3 notl %r9d andl $-240189143, %r9d notl %ecx andl $415260490, %ecx orl %r9d, %ecx jne .LBB3_3 shrl $8, %edx andl $1, %edx movl %edx, %esi .LBB3_3: movl %esi, %eax retq .Lfunc_end3: .size haberdashery_aes128gcm_tigerlake_is_supported, .Lfunc_end3-haberdashery_aes128gcm_tigerlake_is_supported .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
63,940
asm/aes256gcm_streaming_skylakex.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI0_9: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_1: .quad 4294967297 .LCPI0_8: .quad 274877907008 .LCPI0_10: .quad -4467570830351532032 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI0_2: .long 0x00000002 .LCPI0_3: .long 0x0c0f0e0d .LCPI0_4: .long 0x00000004 .LCPI0_5: .long 0x00000008 .LCPI0_6: .long 0x00000010 .LCPI0_7: .long 0x00000020 .section .text.haberdashery_aes256gcm_streaming_skylakex_init_key,"ax",@progbits .globl haberdashery_aes256gcm_streaming_skylakex_init_key .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_skylakex_init_key,@function haberdashery_aes256gcm_streaming_skylakex_init_key: .cfi_startproc cmpq $32, %rdx jne .LBB0_2 vmovupd (%rsi), %xmm5 vmovdqu 16(%rsi), %xmm4 vpslldq $4, %xmm5, %xmm0 vpslldq $8, %xmm5, %xmm1 vpslldq $12, %xmm5, %xmm2 vpternlogq $150, %xmm1, %xmm0, %xmm2 vpbroadcastd .LCPI0_3(%rip), %xmm16 vpshufb %xmm16, %xmm4, %xmm0 vpbroadcastq .LCPI0_1(%rip), %xmm1 vaesenclast %xmm1, %xmm0, %xmm6 vpternlogq $150, %xmm2, %xmm5, %xmm6 vaesenc %xmm4, %xmm5, %xmm0 vpslldq $4, %xmm4, %xmm1 vpslldq $8, %xmm4, %xmm2 vpslldq $12, %xmm4, %xmm3 vpternlogq $150, %xmm2, %xmm1, %xmm3 vpshufd $255, %xmm6, %xmm1 vmovdqa %xmm6, %xmm7 vpxor %xmm15, %xmm15, %xmm15 vaesenclast %xmm15, %xmm1, %xmm6 vbroadcastss .LCPI0_2(%rip), %xmm2 vpternlogq $150, %xmm3, %xmm4, %xmm6 vbroadcastss .LCPI0_3(%rip), %xmm1 #APP vaesenc %xmm7, %xmm0, %xmm0 vpslldq $4, %xmm7, %xmm3 vpslldq $8, %xmm7, %xmm8 vpslldq $12, %xmm7, %xmm9 vpternlogq $150, %xmm3, %xmm8, %xmm9 vpshufb %xmm1, %xmm6, %xmm10 vaesenclast %xmm2, %xmm10, %xmm10 vpternlogq $150, %xmm7, %xmm9, %xmm10 #NO_APP vmovdqa64 %xmm7, %xmm17 vbroadcastss .LCPI0_4(%rip), %xmm2 #APP vaesenc %xmm6, %xmm0, %xmm0 vpslldq $4, %xmm6, %xmm3 vpslldq $8, %xmm6, %xmm8 vpslldq $12, %xmm6, %xmm9 vpternlogq $150, %xmm3, %xmm8, %xmm9 vpshufd $255, %xmm10, %xmm7 vaesenclast %xmm15, %xmm7, %xmm7 vpternlogq $150, %xmm6, %xmm9, %xmm7 #NO_APP #APP vaesenc %xmm10, %xmm0, %xmm0 vpslldq $4, %xmm10, %xmm3 vpslldq $8, %xmm10, %xmm8 vpslldq $12, %xmm10, %xmm9 vpternlogq $150, %xmm3, %xmm8, %xmm9 vpshufb %xmm1, %xmm7, %xmm11 vaesenclast %xmm2, %xmm11, %xmm11 vpternlogq $150, %xmm10, %xmm9, %xmm11 #NO_APP vmovaps %xmm10, %xmm18 #APP vaesenc %xmm7, %xmm0, %xmm0 vpslldq $4, %xmm7, %xmm2 vpslldq $8, %xmm7, %xmm3 vpslldq $12, %xmm7, %xmm8 vpternlogq $150, %xmm2, %xmm3, %xmm8 vpshufd $255, %xmm11, %xmm9 vaesenclast %xmm15, %xmm9, %xmm9 vpternlogq $150, %xmm7, %xmm8, %xmm9 #NO_APP vmovaps %xmm7, %xmm19 vbroadcastss .LCPI0_5(%rip), %xmm2 vmovaps %xmm9, %xmm7 #APP vaesenc %xmm11, %xmm0, %xmm0 vpslldq $4, %xmm11, %xmm3 vpslldq $8, %xmm11, %xmm9 vpslldq $12, %xmm11, %xmm10 vpternlogq $150, %xmm3, %xmm9, %xmm10 vpshufb %xmm1, %xmm7, %xmm8 vaesenclast %xmm2, %xmm8, %xmm8 vpternlogq $150, %xmm11, %xmm10, %xmm8 #NO_APP vmovaps %xmm11, %xmm20 #APP vaesenc %xmm7, %xmm0, %xmm0 vpslldq $4, %xmm7, %xmm2 vpslldq $8, %xmm7, %xmm3 vpslldq $12, %xmm7, %xmm10 vpternlogq $150, %xmm2, %xmm3, %xmm10 vpshufd $255, %xmm8, %xmm9 vaesenclast %xmm15, %xmm9, %xmm9 vpternlogq $150, %xmm7, %xmm10, %xmm9 #NO_APP vmovaps %xmm7, %xmm21 vbroadcastss .LCPI0_6(%rip), %xmm2 vmovaps %xmm9, %xmm7 #APP vaesenc %xmm8, %xmm0, %xmm0 vpslldq $4, %xmm8, %xmm3 vpslldq $8, %xmm8, %xmm11 vpslldq $12, %xmm8, %xmm12 vpternlogq $150, %xmm3, %xmm11, %xmm12 vpshufb %xmm1, %xmm7, %xmm9 vaesenclast %xmm2, %xmm9, %xmm9 vpternlogq $150, %xmm8, %xmm12, %xmm9 #NO_APP vmovaps %xmm8, %xmm22 vbroadcastss .LCPI0_7(%rip), %xmm2 #APP vaesenc %xmm7, %xmm0, %xmm0 vpslldq $4, %xmm7, %xmm3 vpslldq $8, %xmm7, %xmm12 vpslldq $12, %xmm7, %xmm13 vpternlogq $150, %xmm3, %xmm12, %xmm13 vpshufd $255, %xmm9, %xmm11 vaesenclast %xmm15, %xmm11, %xmm11 vpternlogq $150, %xmm7, %xmm13, %xmm11 #NO_APP vmovaps %xmm7, %xmm23 #APP vaesenc %xmm9, %xmm0, %xmm0 vpslldq $4, %xmm9, %xmm3 vpslldq $8, %xmm9, %xmm13 vpslldq $12, %xmm9, %xmm14 vpternlogq $150, %xmm3, %xmm13, %xmm14 vpshufb %xmm1, %xmm11, %xmm12 vaesenclast %xmm2, %xmm12, %xmm12 vpternlogq $150, %xmm9, %xmm14, %xmm12 #NO_APP vmovaps %xmm9, %xmm24 vpslldq $4, %xmm11, %xmm1 vpunpcklqdq %xmm11, %xmm15, %xmm2 vinsertps $55, %xmm11, %xmm0, %xmm3 vpternlogq $150, %xmm2, %xmm1, %xmm3 vpshufd $255, %xmm12, %xmm1 vaesenclast %xmm15, %xmm1, %xmm13 vpternlogq $150, %xmm3, %xmm11, %xmm13 vpshufb %xmm16, %xmm13, %xmm1 vpbroadcastq .LCPI0_8(%rip), %xmm2 vaesenclast %xmm2, %xmm1, %xmm14 vpslldq $4, %xmm12, %xmm1 vpunpcklqdq %xmm12, %xmm15, %xmm2 vinsertps $55, %xmm12, %xmm0, %xmm3 vpternlogq $150, %xmm2, %xmm1, %xmm3 vpternlogq $150, %xmm3, %xmm12, %xmm14 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm13, %xmm0, %xmm0 vaesenclast %xmm14, %xmm0, %xmm0 vpshufb .LCPI0_9(%rip), %xmm0, %xmm0 vpsrlq $63, %xmm0, %xmm1 vpshufd $78, %xmm1, %xmm2 vpblendd $12, %xmm1, %xmm15, %xmm1 vpaddq %xmm0, %xmm0, %xmm0 vpsllq $63, %xmm1, %xmm3 vpternlogq $30, %xmm2, %xmm0, %xmm3 vpsllq $62, %xmm1, %xmm0 vpsllq $57, %xmm1, %xmm15 vpternlogq $150, %xmm0, %xmm3, %xmm15 vpclmulqdq $0, %xmm15, %xmm15, %xmm0 vpshufd $78, %xmm0, %xmm1 vpbroadcastq .LCPI0_10(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm1 vpclmulqdq $17, %xmm15, %xmm15, %xmm0 vpternlogq $150, %xmm2, %xmm0, %xmm1 vpclmulqdq $16, %xmm15, %xmm1, %xmm0 vpclmulqdq $1, %xmm15, %xmm1, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpslldq $8, %xmm0, %xmm2 vpclmulqdq $0, %xmm15, %xmm1, %xmm8 vpxor %xmm2, %xmm8, %xmm2 vpshufd $78, %xmm2, %xmm8 vpclmulqdq $16, %xmm3, %xmm2, %xmm2 vpxor %xmm2, %xmm8, %xmm2 vpclmulqdq $16, %xmm3, %xmm2, %xmm8 vpclmulqdq $17, %xmm15, %xmm1, %xmm9 vpxor %xmm8, %xmm9, %xmm8 vpsrldq $8, %xmm0, %xmm0 vpshufd $78, %xmm2, %xmm2 vpternlogq $150, %xmm0, %xmm8, %xmm2 vpclmulqdq $0, %xmm2, %xmm2, %xmm0 vpshufd $78, %xmm0, %xmm8 vpclmulqdq $16, %xmm3, %xmm0, %xmm0 vpxor %xmm0, %xmm8, %xmm0 vpshufd $78, %xmm0, %xmm8 vpclmulqdq $16, %xmm3, %xmm0, %xmm0 vpclmulqdq $17, %xmm2, %xmm2, %xmm9 vpternlogq $150, %xmm0, %xmm9, %xmm8 vpclmulqdq $0, %xmm1, %xmm1, %xmm0 vpshufd $78, %xmm0, %xmm9 vpclmulqdq $16, %xmm3, %xmm0, %xmm0 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $16, %xmm3, %xmm0, %xmm9 vpshufd $78, %xmm0, %xmm0 vpclmulqdq $17, %xmm1, %xmm1, %xmm10 vpternlogq $150, %xmm9, %xmm10, %xmm0 vpclmulqdq $16, %xmm15, %xmm0, %xmm9 vpclmulqdq $1, %xmm15, %xmm0, %xmm10 vpxor %xmm9, %xmm10, %xmm9 vpslldq $8, %xmm9, %xmm10 vpclmulqdq $0, %xmm15, %xmm0, %xmm7 vpxor %xmm7, %xmm10, %xmm7 vpshufd $78, %xmm7, %xmm10 vpclmulqdq $16, %xmm3, %xmm7, %xmm7 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $16, %xmm3, %xmm7, %xmm3 vpclmulqdq $17, %xmm15, %xmm0, %xmm10 vpxor %xmm3, %xmm10, %xmm3 vpshufd $78, %xmm7, %xmm7 vmovdqa %xmm5, (%rdi) vmovdqa %xmm4, 16(%rdi) vmovdqa64 %xmm17, 32(%rdi) vmovdqa %xmm6, 48(%rdi) vmovaps %xmm18, 64(%rdi) vmovaps %xmm19, 80(%rdi) vmovaps %xmm20, 96(%rdi) vmovaps %xmm21, 112(%rdi) vmovaps %xmm22, 128(%rdi) vmovaps %xmm23, 144(%rdi) vmovaps %xmm24, 160(%rdi) vmovaps %xmm11, 176(%rdi) vmovaps %xmm12, 192(%rdi) vmovdqa %xmm13, 208(%rdi) vmovdqa %xmm14, 224(%rdi) vmovdqa %xmm15, 240(%rdi) vmovdqa %xmm1, 256(%rdi) vmovdqa %xmm2, 272(%rdi) vmovdqa %xmm0, 288(%rdi) vpsrldq $8, %xmm9, %xmm0 vpternlogq $150, %xmm0, %xmm3, %xmm7 vmovdqa %xmm7, 304(%rdi) vmovdqa %xmm8, 320(%rdi) .LBB0_2: xorl %eax, %eax cmpq $32, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes256gcm_streaming_skylakex_init_key, .Lfunc_end0-haberdashery_aes256gcm_streaming_skylakex_init_key .cfi_endproc .section .text.haberdashery_aes256gcm_streaming_skylakex_is_supported,"ax",@progbits .globl haberdashery_aes256gcm_streaming_skylakex_is_supported .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_skylakex_is_supported,@function haberdashery_aes256gcm_streaming_skylakex_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $-779157207, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end1: .size haberdashery_aes256gcm_streaming_skylakex_is_supported, .Lfunc_end1-haberdashery_aes256gcm_streaming_skylakex_is_supported .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_1: .long 1 .long 0 .long 0 .long 0 .section .text.haberdashery_aes256gcm_streaming_skylakex_init_state,"ax",@progbits .globl haberdashery_aes256gcm_streaming_skylakex_init_state .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_skylakex_init_state,@function haberdashery_aes256gcm_streaming_skylakex_init_state: .cfi_startproc cmpq $12, %rcx jne .LBB2_2 vmovd (%rdx), %xmm0 vpinsrd $1, 4(%rdx), %xmm0, %xmm0 vpinsrd $2, 8(%rdx), %xmm0, %xmm0 movl $16777216, %eax vpinsrd $3, %eax, %xmm0, %xmm0 vpshufb .LCPI2_0(%rip), %xmm0, %xmm1 vpaddd .LCPI2_1(%rip), %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmovups %ymm2, -56(%rsp) vmovups %ymm2, -88(%rsp) movq $0, -24(%rsp) vxorps %xmm2, %xmm2, %xmm2 vmovaps %xmm2, (%rdi) vmovdqa %xmm0, 16(%rdi) vmovdqa %xmm1, 32(%rdi) vmovups -56(%rsp), %ymm0 vmovups -40(%rsp), %xmm1 movq -24(%rsp), %rax movq -16(%rsp), %rdx vmovups %ymm0, 48(%rdi) vmovups %xmm1, 64(%rdi) movq %rax, 80(%rdi) movq %rdx, 88(%rdi) vmovaps %xmm2, 96(%rdi) .LBB2_2: xorl %eax, %eax cmpq $12, %rcx sete %al vzeroupper retq .Lfunc_end2: .size haberdashery_aes256gcm_streaming_skylakex_init_state, .Lfunc_end2-haberdashery_aes256gcm_streaming_skylakex_init_state .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI3_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI3_1: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_streaming_skylakex_aad_update,"ax",@progbits .globl haberdashery_aes256gcm_streaming_skylakex_aad_update .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_skylakex_aad_update,@function haberdashery_aes256gcm_streaming_skylakex_aad_update: .cfi_startproc movabsq $-2305843009213693951, %rax leaq (%rcx,%rax), %r8 incq %rax cmpq %rax, %r8 jae .LBB3_3 xorl %eax, %eax retq .LBB3_3: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $24, %rsp .cfi_def_cfa_offset 80 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 96(%rdi), %rbx addq %rcx, %rbx xorl %eax, %eax movabsq $2305843009213693950, %r8 cmpq %r8, %rbx ja .LBB3_25 cmpq $0, 104(%rdi) jne .LBB3_25 movq 80(%rdi), %r8 testq %r8, %r8 je .LBB3_6 leaq (%r8,%rcx), %r14 cmpq $15, %r14 ja .LBB3_9 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%r8), %rax movq %rdi, %r15 movq %rax, %rdi movq %rdx, %rsi movq %rcx, %rdx movq %rcx, %r12 callq *memcpy@GOTPCREL(%rip) movq %r15, %rdi movq %r12, %rcx vmovdqa 64(%r15), %xmm0 vpxor (%rsp), %xmm0, %xmm0 vmovdqa %xmm0, 64(%r15) movq %r14, 80(%r15) jmp .LBB3_24 .LBB3_6: movq %rcx, %r14 cmpq $96, %r14 jae .LBB3_11 jmp .LBB3_14 .LBB3_9: vmovaps 64(%rdi), %xmm0 vmovaps %xmm0, (%rsp) movl $16, %eax subq %r8, %rax addq %rsp, %r8 leaq (%rdx,%rax), %r15 movq %rcx, %r14 subq %rax, %r14 movq %rdi, %r12 movq %r8, %rdi movq %rsi, %r13 movq %rdx, %rsi movq %rax, %rdx movq %rcx, %rbp callq *memcpy@GOTPCREL(%rip) movq %r13, %rsi movq %r12, %rdi movq %rbp, %rcx vmovdqa (%rsp), %xmm0 vmovdqa 240(%r13), %xmm1 movq $0, 80(%r12) vpshufb .LCPI3_0(%rip), %xmm0, %xmm0 vpxor (%r12), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI3_1(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm0 vpternlogq $150, %xmm2, %xmm1, %xmm0 vmovdqa %xmm0, (%r12) movq %r15, %rdx cmpq $96, %r14 jb .LBB3_14 .LBB3_11: vmovdqa (%rdi), %xmm8 vmovdqa64 240(%rsi), %xmm18 vmovdqa64 256(%rsi), %xmm19 vmovdqa64 272(%rsi), %xmm20 vmovdqa64 288(%rsi), %xmm21 vmovdqa 304(%rsi), %xmm4 vmovdqa 320(%rsi), %xmm5 vmovdqa64 .LCPI3_0(%rip), %xmm16 vpbroadcastq .LCPI3_1(%rip), %xmm22 .p2align 4, 0x90 .LBB3_12: vmovdqu64 (%rdx), %xmm17 vmovdqu 16(%rdx), %xmm10 vmovdqu 32(%rdx), %xmm11 vmovdqu 48(%rdx), %xmm12 vmovdqu 64(%rdx), %xmm13 vmovdqu 80(%rdx), %xmm14 vpshufb %xmm16, %xmm12, %xmm12 vpshufb %xmm16, %xmm13, %xmm13 vpshufb %xmm16, %xmm14, %xmm14 vmovdqa64 %xmm18, %xmm1 vpclmulqdq $0, %xmm14, %xmm1, %xmm15 vpclmulqdq $1, %xmm14, %xmm1, %xmm7 vpclmulqdq $16, %xmm14, %xmm1, %xmm6 vpxor %xmm7, %xmm6, %xmm6 vmovdqa64 %xmm19, %xmm2 vpclmulqdq $0, %xmm13, %xmm2, %xmm7 vpclmulqdq $1, %xmm13, %xmm2, %xmm9 vpclmulqdq $16, %xmm13, %xmm2, %xmm0 vpternlogq $150, %xmm9, %xmm6, %xmm0 vmovdqa64 %xmm20, %xmm3 vpclmulqdq $0, %xmm12, %xmm3, %xmm6 vpternlogq $150, %xmm15, %xmm7, %xmm6 vpclmulqdq $1, %xmm12, %xmm3, %xmm7 vpclmulqdq $16, %xmm12, %xmm3, %xmm9 vpternlogq $150, %xmm7, %xmm0, %xmm9 vpshufb %xmm16, %xmm10, %xmm0 vpshufb %xmm16, %xmm11, %xmm7 vpclmulqdq $17, %xmm14, %xmm1, %xmm10 vpclmulqdq $17, %xmm13, %xmm2, %xmm11 vpclmulqdq $17, %xmm12, %xmm3, %xmm12 vpternlogq $150, %xmm10, %xmm11, %xmm12 vmovdqa64 %xmm21, %xmm1 vpclmulqdq $1, %xmm7, %xmm1, %xmm10 vpclmulqdq $16, %xmm7, %xmm1, %xmm11 vpternlogq $150, %xmm10, %xmm9, %xmm11 vpclmulqdq $0, %xmm7, %xmm1, %xmm9 vpclmulqdq $0, %xmm0, %xmm4, %xmm10 vpternlogq $150, %xmm9, %xmm6, %xmm10 vpclmulqdq $1, %xmm0, %xmm4, %xmm6 vpclmulqdq $16, %xmm0, %xmm4, %xmm9 vpternlogq $150, %xmm6, %xmm11, %xmm9 vpshufb %xmm16, %xmm17, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm7, %xmm1, %xmm7 vpclmulqdq $17, %xmm0, %xmm4, %xmm0 vpternlogq $150, %xmm7, %xmm12, %xmm0 vpclmulqdq $1, %xmm6, %xmm5, %xmm7 vpclmulqdq $16, %xmm6, %xmm5, %xmm11 vpternlogq $150, %xmm7, %xmm9, %xmm11 vpclmulqdq $0, %xmm6, %xmm5, %xmm7 vpslldq $8, %xmm11, %xmm8 vpternlogq $150, %xmm7, %xmm10, %xmm8 vpclmulqdq $17, %xmm6, %xmm5, %xmm6 vmovdqa64 %xmm22, %xmm1 vpclmulqdq $16, %xmm1, %xmm8, %xmm7 vpshufd $78, %xmm8, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $16, %xmm1, %xmm7, %xmm8 vpternlogq $150, %xmm6, %xmm0, %xmm8 vpsrldq $8, %xmm11, %xmm0 vpshufd $78, %xmm7, %xmm6 addq $96, %rdx addq $-96, %r14 vpternlogq $150, %xmm0, %xmm6, %xmm8 cmpq $95, %r14 ja .LBB3_12 vmovdqa %xmm8, (%rdi) .LBB3_14: cmpq $16, %r14 jae .LBB3_15 testq %r14, %r14 je .LBB3_24 .LBB3_23: movl $-1, %eax bzhil %r14d, %eax, %eax kmovd %eax, %k1 vmovdqu8 (%rdx), %xmm0 {%k1} {z} vpxor %xmm1, %xmm1, %xmm1 vmovdqa %xmm1, 48(%rdi) vmovdqa %xmm0, 64(%rdi) movq %r14, 80(%rdi) .LBB3_24: movq %rbx, 96(%rdi) movq %rcx, %rax .LBB3_25: addq $24, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp retq .LBB3_15: .cfi_def_cfa_offset 80 .cfi_offset %rbx, -56 .cfi_offset %rbp, -16 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 vmovdqa (%rdi), %xmm1 vmovdqa 240(%rsi), %xmm0 leaq -16(%r14), %rax testb $16, %al jne .LBB3_17 vmovdqu (%rdx), %xmm2 addq $16, %rdx vpshufb .LCPI3_0(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpbroadcastq .LCPI3_1(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm1, %xmm4, %xmm1 vpternlogq $150, %xmm3, %xmm2, %xmm1 movq %rax, %r14 .LBB3_17: cmpq $16, %rax jb .LBB3_21 vmovdqa .LCPI3_0(%rip), %xmm2 vpbroadcastq .LCPI3_1(%rip), %xmm3 .p2align 4, 0x90 .LBB3_19: vmovdqu (%rdx), %xmm4 vmovdqu 16(%rdx), %xmm5 vpshufb %xmm2, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpshufd $78, %xmm4, %xmm4 vpternlogq $150, %xmm1, %xmm6, %xmm7 addq $32, %rdx addq $-32, %r14 vpshufb %xmm2, %xmm5, %xmm1 vpternlogq $150, %xmm4, %xmm7, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $16, %xmm1, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpclmulqdq $16, %xmm3, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm1, %xmm6, %xmm1 vpternlogq $150, %xmm5, %xmm4, %xmm1 cmpq $15, %r14 ja .LBB3_19 movq %r14, %rax .LBB3_21: vmovdqa %xmm1, (%rdi) movq %rax, %r14 testq %r14, %r14 jne .LBB3_23 jmp .LBB3_24 .Lfunc_end3: .size haberdashery_aes256gcm_streaming_skylakex_aad_update, .Lfunc_end3-haberdashery_aes256gcm_streaming_skylakex_aad_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI4_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI4_2: .long 1 .long 0 .long 0 .long 0 .LCPI4_3: .long 2 .long 0 .long 0 .long 0 .LCPI4_4: .long 3 .long 0 .long 0 .long 0 .LCPI4_5: .long 4 .long 0 .long 0 .long 0 .LCPI4_6: .long 5 .long 0 .long 0 .long 0 .LCPI4_7: .long 6 .long 0 .long 0 .long 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI4_1: .quad -4467570830351532032 .section .rodata,"a",@progbits .LCPI4_8: .byte 1 .byte 0 .section .text.haberdashery_aes256gcm_streaming_skylakex_encrypt_update,"ax",@progbits .globl haberdashery_aes256gcm_streaming_skylakex_encrypt_update .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_skylakex_encrypt_update,@function haberdashery_aes256gcm_streaming_skylakex_encrypt_update: .cfi_startproc cmpq %r9, %rcx jne .LBB4_3 movq %rcx, %rax movabsq $-68719476704, %rcx leaq (%rax,%rcx), %r9 incq %rcx cmpq %rcx, %r9 jb .LBB4_3 movq 104(%rdi), %rcx leaq (%rcx,%rax), %r11 movq %r11, %r9 shrq $5, %r9 cmpq $2147483646, %r9 jbe .LBB4_6 .LBB4_3: xorl %eax, %eax retq .LBB4_6: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $248, %rsp .cfi_def_cfa_offset 304 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 testq %rcx, %rcx setne %r9b movq 80(%rdi), %rcx testq %rcx, %rcx sete %r10b orb %r9b, %r10b je .LBB4_10 testq %rcx, %rcx je .LBB4_11 movq %r11, 16(%rsp) movq %rdi, %rbp leaq (%rcx,%rax), %r13 cmpq $15, %r13 ja .LBB4_12 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r14 movq memcpy@GOTPCREL(%rip), %r12 movq %r14, %rdi movq %rdx, %rsi movq %rax, %rdx movq %rax, %rbx movq %r8, %r15 callq *%r12 vmovdqa (%rsp), %xmm0 vpxor 64(%rbp), %xmm0, %xmm0 vmovdqa %xmm0, 64(%rbp) vmovdqa %xmm0, (%rsp) movq %r15, %rdi movq %r14, %rsi movq %rbx, %rdx callq *%r12 movq %rbp, %rdi movq %rbx, %rax movq 16(%rsp), %r11 jmp .LBB4_24 .LBB4_10: vmovdqa 240(%rsi), %xmm0 vmovdqa 64(%rdi), %xmm1 vpshufb .LCPI4_0(%rip), %xmm1, %xmm1 vpxor (%rdi), %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI4_1(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm0 vpternlogq $150, %xmm2, %xmm1, %xmm0 vmovdqa %xmm0, (%rdi) vpxor %xmm0, %xmm0, %xmm0 vmovdqu %ymm0, 48(%rdi) movq $0, 80(%rdi) .LBB4_11: movq %rax, %r13 cmpq $96, %r13 jb .LBB4_14 .LBB4_16: vmovdqu64 (%rdx), %xmm16 vmovdqu 16(%rdx), %xmm4 vmovdqa 32(%rdi), %xmm2 vmovdqa .LCPI4_0(%rip), %xmm0 vpshufb %xmm0, %xmm2, %xmm5 vpaddd .LCPI4_2(%rip), %xmm2, %xmm1 vpshufb %xmm0, %xmm1, %xmm6 vpaddd .LCPI4_3(%rip), %xmm2, %xmm1 vpshufb %xmm0, %xmm1, %xmm7 vpaddd .LCPI4_4(%rip), %xmm2, %xmm1 vpshufb %xmm0, %xmm1, %xmm8 vpaddd .LCPI4_5(%rip), %xmm2, %xmm1 vpshufb %xmm0, %xmm1, %xmm11 vpaddd .LCPI4_6(%rip), %xmm2, %xmm1 vpshufb %xmm0, %xmm1, %xmm12 vmovdqa (%rsi), %xmm1 vmovdqa 16(%rsi), %xmm3 vmovdqa 32(%rsi), %xmm13 vmovdqa 48(%rsi), %xmm14 vpxor %xmm5, %xmm1, %xmm9 vpxor %xmm6, %xmm1, %xmm10 vpxor %xmm7, %xmm1, %xmm7 vpxor %xmm1, %xmm8, %xmm8 vpxor %xmm1, %xmm11, %xmm5 vpxor %xmm1, %xmm12, %xmm6 vmovdqa64 %xmm3, %xmm18 #APP vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovdqa64 %xmm13, %xmm19 #APP vaesenc %xmm13, %xmm9, %xmm9 vaesenc %xmm13, %xmm10, %xmm10 vaesenc %xmm13, %xmm7, %xmm7 vaesenc %xmm13, %xmm8, %xmm8 vaesenc %xmm13, %xmm5, %xmm5 vaesenc %xmm13, %xmm6, %xmm6 #NO_APP #APP vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm5, %xmm5 vaesenc %xmm14, %xmm6, %xmm6 #NO_APP vmovdqa 64(%rsi), %xmm11 #APP vaesenc %xmm11, %xmm9, %xmm9 vaesenc %xmm11, %xmm10, %xmm10 vaesenc %xmm11, %xmm7, %xmm7 vaesenc %xmm11, %xmm8, %xmm8 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 #NO_APP vmovdqa 80(%rsi), %xmm12 #APP vaesenc %xmm12, %xmm9, %xmm9 vaesenc %xmm12, %xmm10, %xmm10 vaesenc %xmm12, %xmm7, %xmm7 vaesenc %xmm12, %xmm8, %xmm8 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm12, %xmm6, %xmm6 #NO_APP vmovaps 96(%rsi), %xmm3 vmovaps %xmm3, 16(%rsp) #APP vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovaps 112(%rsi), %xmm3 vmovaps %xmm3, 128(%rsp) #APP vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovaps 128(%rsi), %xmm3 vmovaps %xmm3, 112(%rsp) #APP vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovaps 144(%rsi), %xmm3 vmovaps %xmm3, 96(%rsp) #APP vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovaps 160(%rsi), %xmm3 vmovaps %xmm3, %xmm31 #APP vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovdqa 176(%rsi), %xmm3 vmovdqa64 %xmm3, %xmm24 #APP vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovdqa 192(%rsi), %xmm3 vmovdqa64 %xmm3, %xmm27 #APP vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovdqa 208(%rsi), %xmm3 vmovdqa %xmm3, %xmm13 #APP vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovdqa 224(%rsi), %xmm3 vmovdqa64 %xmm3, %xmm23 #APP vaesenclast %xmm3, %xmm9, %xmm9 vaesenclast %xmm3, %xmm10, %xmm10 vaesenclast %xmm3, %xmm7, %xmm7 vaesenclast %xmm3, %xmm8, %xmm8 vaesenclast %xmm3, %xmm5, %xmm5 vaesenclast %xmm3, %xmm6, %xmm6 #NO_APP vpxorq %xmm16, %xmm9, %xmm16 vpxorq %xmm4, %xmm10, %xmm25 vmovdqu 32(%rdx), %xmm3 vmovdqu 48(%rdx), %xmm4 vpxorq %xmm3, %xmm7, %xmm26 vpxorq %xmm4, %xmm8, %xmm28 vmovdqu 64(%rdx), %xmm3 vmovdqu 80(%rdx), %xmm4 vpxorq %xmm3, %xmm5, %xmm29 vpxor %xmm4, %xmm6, %xmm9 addq $96, %rdx leaq 96(%r8), %rcx vpaddd .LCPI4_7(%rip), %xmm2, %xmm2 vmovdqa %xmm2, 32(%rdi) vmovdqu64 %xmm16, (%r8) vmovdqu64 %xmm25, 16(%r8) vmovdqu64 %xmm26, 32(%r8) vmovdqu64 %xmm28, 48(%r8) vmovdqu64 %xmm29, 64(%r8) addq $-96, %r13 vmovdqu %xmm9, 80(%r8) vmovdqa64 (%rdi), %xmm17 cmpq $96, %r13 jb .LBB4_19 vmovaps 240(%rsi), %xmm2 vmovaps %xmm2, 80(%rsp) vmovaps 256(%rsi), %xmm2 vmovaps %xmm2, 64(%rsp) vmovaps 272(%rsi), %xmm2 vmovaps %xmm2, 48(%rsp) vmovaps 288(%rsi), %xmm2 vmovaps %xmm2, 32(%rsp) vmovaps 304(%rsi), %xmm2 vmovaps %xmm2, 224(%rsp) vmovdqa 320(%rsi), %xmm2 vmovdqa %xmm2, 208(%rsp) vmovdqa64 %xmm18, 192(%rsp) vmovdqa64 %xmm19, 176(%rsp) vmovdqa %xmm14, 160(%rsp) vmovdqa %xmm11, %xmm6 vmovdqa %xmm12, 144(%rsp) vmovdqa64 128(%rsp), %xmm21 vmovdqa64 112(%rsp), %xmm18 vmovdqa64 96(%rsp), %xmm22 vmovdqa64 %xmm27, %xmm20 vmovdqa64 %xmm13, %xmm19 .p2align 4, 0x90 .LBB4_18: vmovdqa64 32(%rdi), %xmm27 vpshufb %xmm0, %xmm27, %xmm2 vpaddd .LCPI4_2(%rip), %xmm27, %xmm3 vpshufb %xmm0, %xmm3, %xmm3 vpaddd .LCPI4_3(%rip), %xmm27, %xmm4 vpshufb %xmm0, %xmm4, %xmm10 vpaddd .LCPI4_4(%rip), %xmm27, %xmm4 vpshufb %xmm0, %xmm4, %xmm11 vpaddd .LCPI4_5(%rip), %xmm27, %xmm4 vpshufb %xmm0, %xmm4, %xmm15 vpaddd .LCPI4_6(%rip), %xmm27, %xmm4 vpshufb %xmm0, %xmm4, %xmm30 vpshufb %xmm0, %xmm9, %xmm4 vpxor %xmm2, %xmm1, %xmm14 vpxor %xmm3, %xmm1, %xmm12 vpxor %xmm1, %xmm10, %xmm13 vpxor %xmm1, %xmm11, %xmm10 vpxor %xmm1, %xmm15, %xmm11 vpxorq %xmm30, %xmm1, %xmm9 vmovaps 192(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm14, %xmm14 vaesenc %xmm2, %xmm12, %xmm12 vaesenc %xmm2, %xmm13, %xmm13 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm11, %xmm11 vaesenc %xmm2, %xmm9, %xmm9 #NO_APP vpxor %xmm15, %xmm15, %xmm15 vpxor %xmm3, %xmm3, %xmm3 vxorps %xmm2, %xmm2, %xmm2 vmovaps 80(%rsp), %xmm7 vmovaps 176(%rsp), %xmm8 #APP vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm10, %xmm10 vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm9, %xmm9 vpclmulqdq $16, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $0, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm15, %xmm15 vpclmulqdq $17, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $1, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 #NO_APP vpshufb %xmm0, %xmm29, %xmm4 vmovaps 160(%rsp), %xmm5 #APP vaesenc %xmm5, %xmm14, %xmm14 vaesenc %xmm5, %xmm12, %xmm12 vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm5, %xmm10, %xmm10 vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm5, %xmm9, %xmm9 #NO_APP vmovaps 64(%rsp), %xmm7 #APP vaesenc %xmm6, %xmm14, %xmm14 vaesenc %xmm6, %xmm12, %xmm12 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm10, %xmm10 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm9, %xmm9 vpclmulqdq $16, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $0, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm15, %xmm15 vpclmulqdq $17, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $1, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 #NO_APP vpshufb %xmm0, %xmm28, %xmm4 vmovaps 144(%rsp), %xmm5 #APP vaesenc %xmm5, %xmm14, %xmm14 vaesenc %xmm5, %xmm12, %xmm12 vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm5, %xmm10, %xmm10 vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm5, %xmm9, %xmm9 #NO_APP vmovaps 48(%rsp), %xmm7 vmovaps 16(%rsp), %xmm8 #APP vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm10, %xmm10 vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm9, %xmm9 vpclmulqdq $16, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $0, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm15, %xmm15 vpclmulqdq $17, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $1, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 #NO_APP vpshufb %xmm0, %xmm26, %xmm4 vmovdqa64 %xmm21, %xmm5 #APP vaesenc %xmm5, %xmm14, %xmm14 vaesenc %xmm5, %xmm12, %xmm12 vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm5, %xmm10, %xmm10 vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm5, %xmm9, %xmm9 #NO_APP vmovaps 32(%rsp), %xmm7 vmovdqa64 %xmm18, %xmm8 #APP vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm10, %xmm10 vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm9, %xmm9 vpclmulqdq $16, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $0, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm15, %xmm15 vpclmulqdq $17, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $1, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 #NO_APP vpshufb %xmm0, %xmm25, %xmm4 vmovdqa64 %xmm22, %xmm5 #APP vaesenc %xmm5, %xmm14, %xmm14 vaesenc %xmm5, %xmm12, %xmm12 vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm5, %xmm10, %xmm10 vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm5, %xmm9, %xmm9 #NO_APP vmovaps 224(%rsp), %xmm7 vmovaps %xmm31, %xmm8 #APP vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm10, %xmm10 vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm9, %xmm9 vpclmulqdq $16, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $0, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm15, %xmm15 vpclmulqdq $17, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $1, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 #NO_APP vpshufb %xmm0, %xmm16, %xmm4 vpxorq %xmm4, %xmm17, %xmm4 vmovdqa64 %xmm24, %xmm5 #APP vaesenc %xmm5, %xmm14, %xmm14 vaesenc %xmm5, %xmm12, %xmm12 vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm5, %xmm10, %xmm10 vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm5, %xmm9, %xmm9 #NO_APP vmovdqa 208(%rsp), %xmm7 vmovdqa64 %xmm20, %xmm8 #APP vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm10, %xmm10 vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm9, %xmm9 vpclmulqdq $16, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $0, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm15, %xmm15 vpclmulqdq $17, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $1, %xmm7, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 #NO_APP vpxor %xmm5, %xmm5, %xmm5 vpunpcklqdq %xmm3, %xmm5, %xmm4 vpunpckhqdq %xmm5, %xmm3, %xmm3 vpxorq %xmm3, %xmm2, %xmm17 vpxor %xmm4, %xmm15, %xmm2 vpshufd $78, %xmm2, %xmm3 vpbroadcastq .LCPI4_1(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm2 vpxor %xmm3, %xmm2, %xmm2 vpshufd $78, %xmm2, %xmm3 vpclmulqdq $16, %xmm4, %xmm2, %xmm2 vpternlogq $150, %xmm2, %xmm3, %xmm17 vmovdqu (%rdx), %xmm2 vmovdqa64 %xmm19, %xmm3 #APP vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm9, %xmm9 #NO_APP vmovdqa64 %xmm23, %xmm3 #APP vaesenclast %xmm3, %xmm14, %xmm14 vaesenclast %xmm3, %xmm12, %xmm12 vaesenclast %xmm3, %xmm13, %xmm13 vaesenclast %xmm3, %xmm10, %xmm10 vaesenclast %xmm3, %xmm11, %xmm11 vaesenclast %xmm3, %xmm9, %xmm9 #NO_APP vpxorq %xmm2, %xmm14, %xmm16 vmovdqu 16(%rdx), %xmm2 vmovdqu 32(%rdx), %xmm3 vpxorq %xmm2, %xmm12, %xmm25 vpxorq %xmm3, %xmm13, %xmm26 vmovdqu 48(%rdx), %xmm2 vmovdqu 64(%rdx), %xmm3 vpxorq %xmm2, %xmm10, %xmm28 vpxorq %xmm3, %xmm11, %xmm29 vmovdqu 80(%rdx), %xmm2 vpxor %xmm2, %xmm9, %xmm9 vpaddd .LCPI4_7(%rip), %xmm27, %xmm2 vmovdqa %xmm2, 32(%rdi) vmovdqu64 %xmm16, (%rcx) vmovdqu64 %xmm25, 16(%rcx) vmovdqu64 %xmm26, 32(%rcx) vmovdqu64 %xmm28, 48(%rcx) vmovdqu64 %xmm29, 64(%rcx) addq $96, %rdx vmovdqu %xmm9, 80(%rcx) addq $96, %rcx addq $-96, %r13 cmpq $95, %r13 ja .LBB4_18 .LBB4_19: vpshufb %xmm0, %xmm16, %xmm2 vpshufb %xmm0, %xmm25, %xmm1 vpshufb %xmm0, %xmm26, %xmm3 vpshufb %xmm0, %xmm28, %xmm4 vpshufb %xmm0, %xmm29, %xmm5 vpshufb %xmm0, %xmm9, %xmm6 vpxorq %xmm2, %xmm17, %xmm0 vmovdqa 240(%rsi), %xmm7 vmovdqa 256(%rsi), %xmm8 vmovdqa 272(%rsi), %xmm9 vmovdqa 288(%rsi), %xmm10 vmovdqa 304(%rsi), %xmm11 vmovdqa 320(%rsi), %xmm2 vpclmulqdq $0, %xmm6, %xmm7, %xmm12 vpclmulqdq $1, %xmm6, %xmm7, %xmm13 vpclmulqdq $16, %xmm6, %xmm7, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $17, %xmm6, %xmm7, %xmm6 vpclmulqdq $0, %xmm5, %xmm8, %xmm7 vpclmulqdq $1, %xmm5, %xmm8, %xmm14 vpclmulqdq $16, %xmm5, %xmm8, %xmm15 vpclmulqdq $17, %xmm5, %xmm8, %xmm5 vpternlogq $150, %xmm14, %xmm13, %xmm15 vpclmulqdq $0, %xmm4, %xmm9, %xmm8 vpclmulqdq $1, %xmm4, %xmm9, %xmm13 vpclmulqdq $16, %xmm4, %xmm9, %xmm14 vpclmulqdq $17, %xmm4, %xmm9, %xmm4 vpternlogq $150, %xmm12, %xmm7, %xmm8 vpternlogq $150, %xmm13, %xmm15, %xmm14 vpternlogq $150, %xmm6, %xmm5, %xmm4 vpclmulqdq $0, %xmm3, %xmm10, %xmm5 vpclmulqdq $1, %xmm3, %xmm10, %xmm6 vpclmulqdq $16, %xmm3, %xmm10, %xmm7 vpclmulqdq $17, %xmm3, %xmm10, %xmm3 vpternlogq $150, %xmm6, %xmm14, %xmm7 vpclmulqdq $0, %xmm1, %xmm11, %xmm6 vpclmulqdq $1, %xmm1, %xmm11, %xmm9 vpclmulqdq $16, %xmm1, %xmm11, %xmm10 vpclmulqdq $17, %xmm1, %xmm11, %xmm1 vpternlogq $150, %xmm5, %xmm8, %xmm6 vpternlogq $150, %xmm9, %xmm7, %xmm10 vpternlogq $150, %xmm3, %xmm4, %xmm1 vpclmulqdq $0, %xmm0, %xmm2, %xmm3 vpclmulqdq $1, %xmm0, %xmm2, %xmm4 vpclmulqdq $16, %xmm0, %xmm2, %xmm5 vpclmulqdq $17, %xmm0, %xmm2, %xmm0 vpternlogq $150, %xmm4, %xmm10, %xmm5 vpslldq $8, %xmm5, %xmm2 vpternlogq $150, %xmm3, %xmm6, %xmm2 vpsrldq $8, %xmm5, %xmm3 vpbroadcastq .LCPI4_1(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpternlogq $150, %xmm0, %xmm1, %xmm4 vpternlogq $150, %xmm3, %xmm2, %xmm4 vmovdqa %xmm4, (%rdi) movq %rcx, %r8 cmpq $16, %r13 jae .LBB4_20 .LBB4_15: testq %r13, %r13 jne .LBB4_23 jmp .LBB4_25 .LBB4_12: movl $16, %ebx subq %rcx, %rbx leaq (%rdx,%rbx), %rdi movq %rdi, 64(%rsp) leaq (%r8,%rbx), %rdi movq %rdi, 48(%rsp) movq %rax, %r13 subq %rbx, %r13 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r14 movq %r14, %rdi movq %rsi, 80(%rsp) movq %rdx, %rsi movq %rbx, %rdx movq %rax, %r12 movq %r8, %r15 callq *memcpy@GOTPCREL(%rip) vmovaps (%rsp), %xmm0 vxorps 64(%rbp), %xmm0, %xmm0 vmovaps %xmm0, 32(%rsp) vmovaps %xmm0, 64(%rbp) vmovaps %xmm0, (%rsp) movq %r15, %rdi movq %r14, %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) movq 80(%rsp), %rsi movq %rbp, %rdi movq %r12, %rax vmovdqa 240(%rsi), %xmm0 movq $0, 80(%rbp) vmovdqa 32(%rsp), %xmm1 vpshufb .LCPI4_0(%rip), %xmm1, %xmm1 vpxor (%rbp), %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI4_1(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm0 vpternlogq $150, %xmm2, %xmm1, %xmm0 vmovdqa %xmm0, (%rbp) movq 48(%rsp), %r8 movq 64(%rsp), %rdx movq 16(%rsp), %r11 cmpq $96, %r13 jae .LBB4_16 .LBB4_14: cmpq $16, %r13 jb .LBB4_15 .LBB4_20: vmovdqa (%rdi), %xmm11 vmovdqa 32(%rdi), %xmm0 vmovdqa64 (%rsi), %xmm16 vmovdqa64 16(%rsi), %xmm20 vmovdqa64 32(%rsi), %xmm21 vmovdqa64 48(%rsi), %xmm22 vmovdqa64 64(%rsi), %xmm23 vmovdqa64 80(%rsi), %xmm24 vmovdqa64 96(%rsi), %xmm25 vmovdqa 112(%rsi), %xmm8 vmovdqa 128(%rsi), %xmm9 vmovdqa 144(%rsi), %xmm10 vmovdqa 160(%rsi), %xmm12 vmovdqa 176(%rsi), %xmm13 vmovdqa 192(%rsi), %xmm14 vmovdqa 208(%rsi), %xmm15 vmovdqa 224(%rsi), %xmm1 vmovdqa 240(%rsi), %xmm2 vmovdqa64 .LCPI4_0(%rip), %xmm17 vpmovsxbq .LCPI4_8(%rip), %xmm18 vpbroadcastq .LCPI4_1(%rip), %xmm3 .p2align 4, 0x90 .LBB4_21: vpshufb %xmm17, %xmm0, %xmm19 vpxorq %xmm19, %xmm16, %xmm4 vmovdqa64 %xmm20, %xmm5 vaesenc %xmm5, %xmm4, %xmm4 vmovdqa64 %xmm21, %xmm5 vaesenc %xmm5, %xmm4, %xmm4 vmovdqa64 %xmm22, %xmm5 vaesenc %xmm5, %xmm4, %xmm4 vmovdqa64 %xmm23, %xmm5 vaesenc %xmm5, %xmm4, %xmm4 vmovdqa64 %xmm24, %xmm5 vaesenc %xmm5, %xmm4, %xmm4 vmovdqa64 %xmm25, %xmm5 vaesenc %xmm5, %xmm4, %xmm4 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm10, %xmm4, %xmm4 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm13, %xmm4, %xmm4 vaesenc %xmm14, %xmm4, %xmm4 vaesenc %xmm15, %xmm4, %xmm4 vaesenclast %xmm1, %xmm4, %xmm4 vpxor (%rdx), %xmm4, %xmm4 vpshufb %xmm17, %xmm4, %xmm19 vpxorq %xmm19, %xmm11, %xmm11 vpclmulqdq $1, %xmm11, %xmm2, %xmm5 vpclmulqdq $16, %xmm11, %xmm2, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $0, %xmm11, %xmm2, %xmm6 vpclmulqdq $17, %xmm11, %xmm2, %xmm11 vpslldq $8, %xmm5, %xmm19 vpxorq %xmm19, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm6, %xmm7 vpshufd $78, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $16, %xmm3, %xmm6, %xmm7 vpxor %xmm7, %xmm11, %xmm11 vpshufd $78, %xmm6, %xmm6 addq $16, %rdx vmovdqu %xmm4, (%r8) addq $16, %r8 addq $-16, %r13 vpaddd %xmm18, %xmm0, %xmm0 vpsrldq $8, %xmm5, %xmm4 vpternlogq $150, %xmm4, %xmm6, %xmm11 cmpq $15, %r13 ja .LBB4_21 vmovdqa %xmm0, 32(%rdi) vmovdqa %xmm11, (%rdi) testq %r13, %r13 je .LBB4_25 .LBB4_23: movl $-1, %ecx bzhil %r13d, %ecx, %ecx kmovd %ecx, %k1 vmovdqu8 (%rdx), %xmm0 {%k1} {z} vmovdqa 32(%rdi), %xmm1 vpshufb .LCPI4_0(%rip), %xmm1, %xmm2 vpaddd .LCPI4_2(%rip), %xmm1, %xmm1 vmovdqa %xmm1, 32(%rdi) vpxor (%rsi), %xmm2, %xmm1 vaesenc 16(%rsi), %xmm1, %xmm1 vaesenc 32(%rsi), %xmm1, %xmm1 vaesenc 48(%rsi), %xmm1, %xmm1 vaesenc 64(%rsi), %xmm1, %xmm1 vaesenc 80(%rsi), %xmm1, %xmm1 vaesenc 96(%rsi), %xmm1, %xmm1 vaesenc 112(%rsi), %xmm1, %xmm1 vaesenc 128(%rsi), %xmm1, %xmm1 vaesenc 144(%rsi), %xmm1, %xmm1 vaesenc 160(%rsi), %xmm1, %xmm1 vaesenc 176(%rsi), %xmm1, %xmm1 vaesenc 192(%rsi), %xmm1, %xmm1 vaesenc 208(%rsi), %xmm1, %xmm1 vaesenclast 224(%rsi), %xmm1, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vmovdqu8 %xmm0, (%r8) {%k1} vmovdqa %xmm1, 48(%rdi) vmovdqa %xmm0, 64(%rdi) .LBB4_24: movq %r13, 80(%rdi) .LBB4_25: movq %r11, 104(%rdi) addq $248, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp vzeroupper retq .Lfunc_end4: .size haberdashery_aes256gcm_streaming_skylakex_encrypt_update, .Lfunc_end4-haberdashery_aes256gcm_streaming_skylakex_encrypt_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI5_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI5_1: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_streaming_skylakex_encrypt_finalize,"ax",@progbits .globl haberdashery_aes256gcm_streaming_skylakex_encrypt_finalize .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_skylakex_encrypt_finalize,@function haberdashery_aes256gcm_streaming_skylakex_encrypt_finalize: .cfi_startproc movq %rcx, %rax movq 80(%rdi), %r8 movq 104(%rdi), %rcx testq %rcx, %rcx je .LBB5_1 testq %r8, %r8 je .LBB5_4 movl $-1, %r9d bzhil %r8d, %r9d, %r8d kmovd %r8d, %k1 vmovdqu8 64(%rdi), %xmm0 {%k1} {z} vpshufb .LCPI5_0(%rip), %xmm0, %xmm0 vpxor (%rdi), %xmm0, %xmm0 vmovdqa 240(%rsi), %xmm1 jmp .LBB5_6 .LBB5_1: vmovdqa (%rdi), %xmm0 testq %r8, %r8 je .LBB5_8 vmovdqa 240(%rsi), %xmm1 vmovdqa 64(%rdi), %xmm2 vpshufb .LCPI5_0(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 .LBB5_6: vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI5_1(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm0 vpternlogq $150, %xmm2, %xmm1, %xmm0 jmp .LBB5_7 .LBB5_4: vmovdqa (%rdi), %xmm0 .LBB5_7: vpxor %xmm1, %xmm1, %xmm1 vmovdqu %ymm1, 48(%rdi) movq $0, 80(%rdi) .LBB5_8: vmovdqa 240(%rsi), %xmm1 vmovq 96(%rdi), %xmm2 vmovq %rcx, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI5_1(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm0 vpternlogq $150, %xmm2, %xmm1, %xmm0 vmovdqa %xmm0, (%rdi) testq %rax, %rax je .LBB5_9 vmovdqa (%rsi), %xmm1 vpxor 16(%rdi), %xmm1, %xmm1 vaesenc 16(%rsi), %xmm1, %xmm1 vaesenc 32(%rsi), %xmm1, %xmm1 vaesenc 48(%rsi), %xmm1, %xmm1 vaesenc 64(%rsi), %xmm1, %xmm1 vaesenc 80(%rsi), %xmm1, %xmm1 vaesenc 96(%rsi), %xmm1, %xmm1 vaesenc 112(%rsi), %xmm1, %xmm1 vaesenc 128(%rsi), %xmm1, %xmm1 vaesenc 144(%rsi), %xmm1, %xmm1 vaesenc 160(%rsi), %xmm1, %xmm1 vaesenc 176(%rsi), %xmm1, %xmm1 vaesenc 192(%rsi), %xmm1, %xmm1 vaesenc 208(%rsi), %xmm1, %xmm1 vaesenclast 224(%rsi), %xmm1, %xmm1 vpshufb .LCPI5_0(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 cmpq $16, %rax jae .LBB5_11 movl $-1, %ecx bzhil %eax, %ecx, %ecx kmovd %ecx, %k1 vmovdqu8 %xmm0, (%rdx) {%k1} vzeroupper retq .LBB5_9: xorl %eax, %eax vzeroupper retq .LBB5_11: vmovdqu %xmm0, (%rdx) movl $16, %eax vzeroupper retq .Lfunc_end5: .size haberdashery_aes256gcm_streaming_skylakex_encrypt_finalize, .Lfunc_end5-haberdashery_aes256gcm_streaming_skylakex_encrypt_finalize .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI6_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI6_2: .long 1 .long 0 .long 0 .long 0 .LCPI6_3: .long 2 .long 0 .long 0 .long 0 .LCPI6_4: .long 3 .long 0 .long 0 .long 0 .LCPI6_5: .long 4 .long 0 .long 0 .long 0 .LCPI6_6: .long 5 .long 0 .long 0 .long 0 .LCPI6_7: .long 6 .long 0 .long 0 .long 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI6_1: .quad -4467570830351532032 .section .rodata,"a",@progbits .LCPI6_8: .byte 1 .byte 0 .section .text.haberdashery_aes256gcm_streaming_skylakex_decrypt_update,"ax",@progbits .globl haberdashery_aes256gcm_streaming_skylakex_decrypt_update .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_skylakex_decrypt_update,@function haberdashery_aes256gcm_streaming_skylakex_decrypt_update: .cfi_startproc cmpq %r9, %rcx jne .LBB6_3 movq %rcx, %rax movabsq $-68719476704, %rcx leaq (%rax,%rcx), %r9 incq %rcx cmpq %rcx, %r9 jb .LBB6_3 movq 104(%rdi), %rcx leaq (%rcx,%rax), %r11 movq %r11, %r9 shrq $5, %r9 cmpq $2147483646, %r9 jbe .LBB6_6 .LBB6_3: xorl %eax, %eax retq .LBB6_6: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $232, %rsp .cfi_def_cfa_offset 288 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 testq %rcx, %rcx setne %r9b movq 80(%rdi), %rcx testq %rcx, %rcx sete %r10b orb %r9b, %r10b je .LBB6_10 testq %rcx, %rcx je .LBB6_11 movq %r11, 16(%rsp) movq %rdi, %rbp leaq (%rcx,%rax), %r13 cmpq $15, %r13 ja .LBB6_12 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r14 movq memcpy@GOTPCREL(%rip), %r12 movq %r14, %rdi movq %rdx, %rsi movq %rax, %rdx movq %rax, %rbx movq %r8, %r15 callq *%r12 vmovdqa (%rsp), %xmm0 vpxor 64(%rbp), %xmm0, %xmm0 vmovdqa %xmm0, 64(%rbp) vmovdqa %xmm0, (%rsp) movq %r15, %rdi movq %r14, %rsi movq %rbx, %rdx callq *%r12 movq %rbp, %rdi movq %rbx, %rax movq 16(%rsp), %r11 jmp .LBB6_23 .LBB6_10: vmovdqa 240(%rsi), %xmm0 vmovdqa 64(%rdi), %xmm1 vpshufb .LCPI6_0(%rip), %xmm1, %xmm1 vpxor (%rdi), %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI6_1(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm0 vpternlogq $150, %xmm2, %xmm1, %xmm0 vmovdqa %xmm0, (%rdi) vpxor %xmm0, %xmm0, %xmm0 vmovdqu %ymm0, 48(%rdi) movq $0, 80(%rdi) .LBB6_11: movq %rax, %r13 cmpq $96, %r13 jb .LBB6_14 .LBB6_16: vmovdqa64 (%rdi), %xmm24 vmovdqa (%rsi), %xmm0 vmovaps 16(%rsi), %xmm1 vmovaps %xmm1, 16(%rsp) vmovaps 32(%rsi), %xmm1 vmovaps %xmm1, 80(%rsp) vmovaps 48(%rsi), %xmm1 vmovaps %xmm1, 64(%rsp) vmovaps 64(%rsi), %xmm1 vmovaps %xmm1, 48(%rsp) vmovaps 80(%rsi), %xmm1 vmovaps %xmm1, 32(%rsp) vmovaps 96(%rsi), %xmm1 vmovaps %xmm1, 208(%rsp) vmovaps 112(%rsi), %xmm1 vmovaps %xmm1, 192(%rsp) vmovaps 128(%rsi), %xmm1 vmovaps %xmm1, 176(%rsp) vmovaps 144(%rsi), %xmm1 vmovaps %xmm1, 160(%rsp) vmovaps 160(%rsi), %xmm1 vmovaps %xmm1, 144(%rsp) vmovaps 176(%rsi), %xmm1 vmovaps %xmm1, 128(%rsp) vmovaps 192(%rsi), %xmm1 vmovaps %xmm1, 112(%rsp) vmovdqa 208(%rsi), %xmm1 vmovdqa %xmm1, 96(%rsp) vmovdqa64 224(%rsi), %xmm18 vmovdqa64 240(%rsi), %xmm19 vmovapd 256(%rsi), %xmm20 vmovdqa64 .LCPI6_0(%rip), %xmm16 vpxord %xmm23, %xmm23, %xmm23 vmovdqa64 272(%rsi), %xmm21 vmovdqa64 288(%rsi), %xmm22 vmovdqa64 304(%rsi), %xmm17 vmovapd 320(%rsi), %xmm5 vpbroadcastq .LCPI6_1(%rip), %xmm6 .p2align 4, 0x90 .LBB6_17: vmovdqu64 (%rdx), %xmm25 vmovdqu64 16(%rdx), %xmm26 vmovdqu64 32(%rdx), %xmm27 vmovdqu64 48(%rdx), %xmm28 vmovdqu64 64(%rdx), %xmm29 vmovdqu64 80(%rdx), %xmm30 vmovdqa64 32(%rdi), %xmm31 vpshufb %xmm16, %xmm31, %xmm7 vpaddd .LCPI6_2(%rip), %xmm31, %xmm8 vpshufb %xmm16, %xmm8, %xmm8 vpaddd .LCPI6_3(%rip), %xmm31, %xmm9 vpshufb %xmm16, %xmm9, %xmm9 vpaddd .LCPI6_4(%rip), %xmm31, %xmm10 vpshufb %xmm16, %xmm10, %xmm10 vpaddd .LCPI6_5(%rip), %xmm31, %xmm11 vpshufb %xmm16, %xmm11, %xmm11 vpaddd .LCPI6_6(%rip), %xmm31, %xmm12 vpshufb %xmm16, %xmm12, %xmm12 vpshufb %xmm16, %xmm30, %xmm1 vpxor %xmm7, %xmm0, %xmm7 vpxor %xmm0, %xmm8, %xmm8 vpxor %xmm0, %xmm9, %xmm9 vpxor %xmm0, %xmm10, %xmm10 vpxor %xmm0, %xmm11, %xmm11 vpxor %xmm0, %xmm12, %xmm12 vmovaps 16(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm11, %xmm11 vaesenc %xmm2, %xmm12, %xmm12 #NO_APP vxorps %xmm15, %xmm15, %xmm15 vxorps %xmm13, %xmm13, %xmm13 vxorps %xmm14, %xmm14, %xmm14 vmovaps 80(%rsp), %xmm3 vmovdqa64 %xmm19, %xmm4 #APP vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vpclmulqdq $16, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm15, %xmm15 vpclmulqdq $0, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpclmulqdq $17, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpclmulqdq $1, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm15, %xmm15 #NO_APP vpshufb %xmm16, %xmm29, %xmm1 vmovaps 64(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm11, %xmm11 vaesenc %xmm2, %xmm12, %xmm12 #NO_APP vmovaps 48(%rsp), %xmm3 vmovapd %xmm20, %xmm4 #APP vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vpclmulqdq $16, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm15, %xmm15 vpclmulqdq $0, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpclmulqdq $17, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpclmulqdq $1, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm15, %xmm15 #NO_APP vpshufb %xmm16, %xmm28, %xmm1 vmovaps 32(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm11, %xmm11 vaesenc %xmm2, %xmm12, %xmm12 #NO_APP vmovaps 208(%rsp), %xmm3 vmovdqa64 %xmm21, %xmm4 #APP vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vpclmulqdq $16, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm15, %xmm15 vpclmulqdq $0, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpclmulqdq $17, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpclmulqdq $1, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm15, %xmm15 #NO_APP vpshufb %xmm16, %xmm27, %xmm1 vmovaps 192(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm11, %xmm11 vaesenc %xmm2, %xmm12, %xmm12 #NO_APP vmovaps 176(%rsp), %xmm3 vmovdqa64 %xmm22, %xmm4 #APP vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vpclmulqdq $16, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm15, %xmm15 vpclmulqdq $0, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpclmulqdq $17, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpclmulqdq $1, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm15, %xmm15 #NO_APP vpshufb %xmm16, %xmm26, %xmm1 vmovaps 160(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm11, %xmm11 vaesenc %xmm2, %xmm12, %xmm12 #NO_APP vmovaps 144(%rsp), %xmm3 vmovdqa64 %xmm17, %xmm4 #APP vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vpclmulqdq $16, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm15, %xmm15 vpclmulqdq $0, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpclmulqdq $17, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpclmulqdq $1, %xmm4, %xmm1, %xmm2 vpxor %xmm2, %xmm15, %xmm15 #NO_APP vpshufb %xmm16, %xmm25, %xmm1 vpxorq %xmm1, %xmm24, %xmm1 vmovaps 128(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm11, %xmm11 vaesenc %xmm2, %xmm12, %xmm12 #NO_APP vmovdqa 112(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm11, %xmm11 vaesenc %xmm3, %xmm12, %xmm12 vpclmulqdq $16, %xmm5, %xmm1, %xmm2 vpxor %xmm2, %xmm15, %xmm15 vpclmulqdq $0, %xmm5, %xmm1, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpclmulqdq $17, %xmm5, %xmm1, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpclmulqdq $1, %xmm5, %xmm1, %xmm2 vpxor %xmm2, %xmm15, %xmm15 #NO_APP vpunpcklqdq %xmm15, %xmm23, %xmm1 vpunpckhqdq %xmm23, %xmm15, %xmm2 vpxorq %xmm2, %xmm13, %xmm24 vpxor %xmm1, %xmm14, %xmm1 vpshufd $78, %xmm1, %xmm2 vpclmulqdq $16, %xmm6, %xmm1, %xmm1 vpxor %xmm2, %xmm1, %xmm1 vpshufd $78, %xmm1, %xmm2 vpclmulqdq $16, %xmm6, %xmm1, %xmm1 vpternlogq $150, %xmm1, %xmm2, %xmm24 vmovaps 96(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm7, %xmm7 vaesenc %xmm1, %xmm8, %xmm8 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 #NO_APP vmovdqa64 %xmm18, %xmm1 #APP vaesenclast %xmm1, %xmm7, %xmm7 vaesenclast %xmm1, %xmm8, %xmm8 vaesenclast %xmm1, %xmm9, %xmm9 vaesenclast %xmm1, %xmm10, %xmm10 vaesenclast %xmm1, %xmm11, %xmm11 vaesenclast %xmm1, %xmm12, %xmm12 #NO_APP vpxorq %xmm25, %xmm7, %xmm1 vpxorq %xmm26, %xmm8, %xmm2 vpxorq %xmm27, %xmm9, %xmm7 vpxorq %xmm28, %xmm10, %xmm8 vpxorq %xmm29, %xmm11, %xmm9 vpxorq %xmm30, %xmm12, %xmm10 vpaddd .LCPI6_7(%rip), %xmm31, %xmm11 vmovdqa %xmm11, 32(%rdi) vmovdqu %xmm1, (%r8) vmovdqu %xmm2, 16(%r8) vmovdqu %xmm7, 32(%r8) vmovdqu %xmm8, 48(%r8) vmovdqu %xmm9, 64(%r8) vmovdqu %xmm10, 80(%r8) addq $96, %rdx addq $96, %r8 addq $-96, %r13 cmpq $95, %r13 ja .LBB6_17 vmovdqa64 %xmm24, (%rdi) cmpq $16, %r13 jae .LBB6_19 .LBB6_15: testq %r13, %r13 jne .LBB6_22 jmp .LBB6_24 .LBB6_12: movl $16, %ebx subq %rcx, %rbx leaq (%rdx,%rbx), %rdi movq %rdi, 64(%rsp) leaq (%r8,%rbx), %rdi movq %rdi, 48(%rsp) movq %rax, %r13 subq %rbx, %r13 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r14 movq %r14, %rdi movq %rsi, 80(%rsp) movq %rdx, %rsi movq %rbx, %rdx movq %rax, %r12 movq %r8, %r15 callq *memcpy@GOTPCREL(%rip) vmovaps (%rsp), %xmm0 vxorps 64(%rbp), %xmm0, %xmm0 vmovaps %xmm0, 32(%rsp) vmovaps %xmm0, 64(%rbp) vmovaps %xmm0, (%rsp) movq %r15, %rdi movq %r14, %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) movq 80(%rsp), %rsi movq %rbp, %rdi movq %r12, %rax movq $0, 80(%rbp) vmovdqa 32(%rsp), %xmm0 vpxor 48(%rbp), %xmm0, %xmm0 vpshufb .LCPI6_0(%rip), %xmm0, %xmm0 vmovdqa 240(%rsi), %xmm1 vpxor (%rbp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI6_1(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm0 vpternlogq $150, %xmm2, %xmm1, %xmm0 vmovdqa %xmm0, (%rbp) movq 48(%rsp), %r8 movq 64(%rsp), %rdx movq 16(%rsp), %r11 cmpq $96, %r13 jae .LBB6_16 .LBB6_14: cmpq $16, %r13 jb .LBB6_15 .LBB6_19: vmovdqa (%rdi), %xmm11 vmovdqa 32(%rdi), %xmm0 vmovdqa 240(%rsi), %xmm1 vmovdqa64 (%rsi), %xmm16 vmovdqa64 16(%rsi), %xmm21 vmovdqa64 32(%rsi), %xmm22 vmovdqa64 48(%rsi), %xmm23 vmovdqa64 64(%rsi), %xmm24 vmovdqa64 80(%rsi), %xmm25 vmovdqa64 96(%rsi), %xmm26 vmovdqa 112(%rsi), %xmm9 vmovdqa 128(%rsi), %xmm10 vmovdqa 144(%rsi), %xmm12 vmovdqa 160(%rsi), %xmm13 vmovdqa 176(%rsi), %xmm14 vmovdqa 192(%rsi), %xmm15 vmovdqa 208(%rsi), %xmm2 vmovdqa 224(%rsi), %xmm3 vmovdqa64 .LCPI6_0(%rip), %xmm17 vpbroadcastq .LCPI6_1(%rip), %xmm4 vpmovsxbq .LCPI6_8(%rip), %xmm18 .p2align 4, 0x90 .LBB6_20: vmovdqu64 (%rdx), %xmm19 vpshufb %xmm17, %xmm19, %xmm20 vpxorq %xmm20, %xmm11, %xmm11 vpclmulqdq $1, %xmm11, %xmm1, %xmm5 vpclmulqdq $16, %xmm11, %xmm1, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $0, %xmm11, %xmm1, %xmm6 vpclmulqdq $17, %xmm11, %xmm1, %xmm11 vpslldq $8, %xmm5, %xmm20 vpxorq %xmm20, %xmm6, %xmm6 vpclmulqdq $16, %xmm4, %xmm6, %xmm7 vpshufd $78, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $16, %xmm4, %xmm6, %xmm7 vpxor %xmm7, %xmm11, %xmm11 vpshufd $78, %xmm6, %xmm6 vpshufb %xmm17, %xmm0, %xmm7 vpxorq %xmm7, %xmm16, %xmm7 vmovdqa64 %xmm21, %xmm8 vaesenc %xmm8, %xmm7, %xmm7 vmovdqa64 %xmm22, %xmm8 vaesenc %xmm8, %xmm7, %xmm7 vmovdqa64 %xmm23, %xmm8 vaesenc %xmm8, %xmm7, %xmm7 vmovdqa64 %xmm24, %xmm8 vaesenc %xmm8, %xmm7, %xmm7 vmovdqa64 %xmm25, %xmm8 vaesenc %xmm8, %xmm7, %xmm7 vmovdqa64 %xmm26, %xmm8 vaesenc %xmm8, %xmm7, %xmm7 vaesenc %xmm9, %xmm7, %xmm7 vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm12, %xmm7, %xmm7 vaesenc %xmm13, %xmm7, %xmm7 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm15, %xmm7, %xmm7 vaesenc %xmm2, %xmm7, %xmm7 vaesenclast %xmm3, %xmm7, %xmm7 vpxorq %xmm19, %xmm7, %xmm7 vmovdqu %xmm7, (%r8) addq $16, %r8 addq $-16, %r13 addq $16, %rdx vpsrldq $8, %xmm5, %xmm5 vpternlogq $150, %xmm5, %xmm6, %xmm11 vpaddd %xmm18, %xmm0, %xmm0 cmpq $15, %r13 ja .LBB6_20 vmovdqa %xmm0, 32(%rdi) vmovdqa %xmm11, (%rdi) testq %r13, %r13 je .LBB6_24 .LBB6_22: movl $-1, %ecx bzhil %r13d, %ecx, %ecx kmovd %ecx, %k1 vmovdqu8 (%rdx), %xmm0 {%k1} {z} vmovdqa 32(%rdi), %xmm1 vpshufb .LCPI6_0(%rip), %xmm1, %xmm2 vpaddd .LCPI6_2(%rip), %xmm1, %xmm1 vmovdqa %xmm1, 32(%rdi) vpxor (%rsi), %xmm2, %xmm1 vaesenc 16(%rsi), %xmm1, %xmm1 vaesenc 32(%rsi), %xmm1, %xmm1 vaesenc 48(%rsi), %xmm1, %xmm1 vaesenc 64(%rsi), %xmm1, %xmm1 vaesenc 80(%rsi), %xmm1, %xmm1 vaesenc 96(%rsi), %xmm1, %xmm1 vaesenc 112(%rsi), %xmm1, %xmm1 vaesenc 128(%rsi), %xmm1, %xmm1 vaesenc 144(%rsi), %xmm1, %xmm1 vaesenc 160(%rsi), %xmm1, %xmm1 vaesenc 176(%rsi), %xmm1, %xmm1 vaesenc 192(%rsi), %xmm1, %xmm1 vaesenc 208(%rsi), %xmm1, %xmm1 vaesenclast 224(%rsi), %xmm1, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vmovdqu8 %xmm0, (%r8) {%k1} vmovdqa %xmm1, 48(%rdi) vmovdqa %xmm0, 64(%rdi) .LBB6_23: movq %r13, 80(%rdi) .LBB6_24: movq %r11, 104(%rdi) addq $232, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp vzeroupper retq .Lfunc_end6: .size haberdashery_aes256gcm_streaming_skylakex_decrypt_update, .Lfunc_end6-haberdashery_aes256gcm_streaming_skylakex_decrypt_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI7_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI7_1: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_streaming_skylakex_decrypt_finalize,"ax",@progbits .globl haberdashery_aes256gcm_streaming_skylakex_decrypt_finalize .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_skylakex_decrypt_finalize,@function haberdashery_aes256gcm_streaming_skylakex_decrypt_finalize: .cfi_startproc xorl %eax, %eax cmpq $16, %rcx jne .LBB7_10 vmovdqu (%rdx), %xmm0 movq 104(%rdi), %rax testq %rax, %rax je .LBB7_2 leaq 48(%rdi), %rcx movq 80(%rdi), %rdx testq %rdx, %rdx je .LBB7_5 vmovdqa 48(%rdi), %xmm1 vpxor 64(%rdi), %xmm1, %xmm1 movl $-1, %r8d bzhil %edx, %r8d, %edx kmovd %edx, %k1 vmovdqu8 %xmm1, %xmm1 {%k1} {z} vpshufb .LCPI7_0(%rip), %xmm1, %xmm1 vpxor (%rdi), %xmm1, %xmm1 vmovdqa 240(%rsi), %xmm2 jmp .LBB7_7 .LBB7_2: cmpq $0, 80(%rdi) vmovdqa (%rdi), %xmm1 je .LBB7_9 vmovdqa 240(%rsi), %xmm2 leaq 48(%rdi), %rcx vmovdqa 64(%rdi), %xmm3 vpshufb .LCPI7_0(%rip), %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 .LBB7_7: vpclmulqdq $0, %xmm1, %xmm2, %xmm3 vpclmulqdq $1, %xmm1, %xmm2, %xmm4 vpclmulqdq $16, %xmm1, %xmm2, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm1, %xmm2, %xmm1 vpslldq $8, %xmm4, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpsrldq $8, %xmm4, %xmm3 vpbroadcastq .LCPI7_1(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm1, %xmm4, %xmm1 vpternlogq $150, %xmm3, %xmm2, %xmm1 jmp .LBB7_8 .LBB7_5: vmovdqa (%rdi), %xmm1 .LBB7_8: vpxor %xmm2, %xmm2, %xmm2 vmovdqu %ymm2, (%rcx) movq $0, 32(%rcx) .LBB7_9: vmovdqa 240(%rsi), %xmm2 vmovq 96(%rdi), %xmm3 vmovq %rax, %xmm4 vpunpcklqdq %xmm3, %xmm4, %xmm3 vpsllq $3, %xmm3, %xmm3 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $0, %xmm1, %xmm2, %xmm3 vpclmulqdq $1, %xmm1, %xmm2, %xmm4 vpclmulqdq $16, %xmm1, %xmm2, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm1, %xmm2, %xmm1 vpslldq $8, %xmm4, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpsrldq $8, %xmm4, %xmm3 vpbroadcastq .LCPI7_1(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm1, %xmm4, %xmm1 vpternlogq $150, %xmm3, %xmm2, %xmm1 vmovdqa %xmm1, (%rdi) vmovdqa (%rsi), %xmm2 vpxor 16(%rdi), %xmm2, %xmm2 vaesenc 16(%rsi), %xmm2, %xmm2 vaesenc 32(%rsi), %xmm2, %xmm2 vaesenc 48(%rsi), %xmm2, %xmm2 vaesenc 64(%rsi), %xmm2, %xmm2 vaesenc 80(%rsi), %xmm2, %xmm2 vaesenc 96(%rsi), %xmm2, %xmm2 vaesenc 112(%rsi), %xmm2, %xmm2 vaesenc 128(%rsi), %xmm2, %xmm2 vaesenc 144(%rsi), %xmm2, %xmm2 vaesenc 160(%rsi), %xmm2, %xmm2 vaesenc 176(%rsi), %xmm2, %xmm2 vaesenc 192(%rsi), %xmm2, %xmm2 vaesenc 208(%rsi), %xmm2, %xmm2 vaesenclast 224(%rsi), %xmm2, %xmm2 vpshufb .LCPI7_0(%rip), %xmm1, %xmm1 vpternlogq $150, %xmm2, %xmm0, %xmm1 xorl %eax, %eax vptest %xmm1, %xmm1 sete %al .LBB7_10: vzeroupper retq .Lfunc_end7: .size haberdashery_aes256gcm_streaming_skylakex_decrypt_finalize, .Lfunc_end7-haberdashery_aes256gcm_streaming_skylakex_decrypt_finalize .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
85,599
asm/aes256gcmdndk_haswell.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI0_1: .quad 4294967297 .quad 4294967297 .LCPI0_2: .quad 8589934594 .quad 8589934594 .LCPI0_3: .quad 17179869188 .quad 17179869188 .LCPI0_4: .quad 34359738376 .quad 34359738376 .LCPI0_5: .quad 68719476752 .quad 68719476752 .LCPI0_6: .quad 137438953504 .quad 137438953504 .LCPI0_7: .quad 274877907008 .quad 274877907008 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI0_8: .byte 13 .byte 14 .byte 15 .byte 12 .section .text.haberdashery_aes256gcmdndk_haswell_init,"ax",@progbits .globl haberdashery_aes256gcmdndk_haswell_init .p2align 4, 0x90 .type haberdashery_aes256gcmdndk_haswell_init,@function haberdashery_aes256gcmdndk_haswell_init: .cfi_startproc cmpq $32, %rdx jne .LBB0_2 vmovdqu (%rsi), %xmm0 vmovdqu 16(%rsi), %xmm1 vpslldq $4, %xmm0, %xmm2 vpslldq $8, %xmm0, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpslldq $12, %xmm0, %xmm4 vpbroadcastd .LCPI0_8(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm5 vaesenclast .LCPI0_1(%rip), %xmm5, %xmm5 vpxor %xmm4, %xmm2, %xmm2 vpxor %xmm0, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpslldq $4, %xmm1, %xmm4 vpslldq $8, %xmm1, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm1, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpshufd $255, %xmm2, %xmm5 vpxor %xmm6, %xmm6, %xmm6 vaesenclast %xmm6, %xmm5, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpslldq $4, %xmm2, %xmm5 vpslldq $8, %xmm2, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpslldq $12, %xmm2, %xmm7 vpshufb %xmm3, %xmm4, %xmm8 vaesenclast .LCPI0_2(%rip), %xmm8, %xmm8 vpxor %xmm7, %xmm5, %xmm5 vpxor %xmm2, %xmm5, %xmm5 vpxor %xmm5, %xmm8, %xmm5 vpslldq $4, %xmm4, %xmm7 vpslldq $8, %xmm4, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpslldq $12, %xmm4, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpshufd $255, %xmm5, %xmm8 vaesenclast %xmm6, %xmm8, %xmm8 vpxor %xmm4, %xmm7, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpslldq $4, %xmm5, %xmm8 vpslldq $8, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpslldq $12, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpshufb %xmm3, %xmm7, %xmm9 vaesenclast .LCPI0_3(%rip), %xmm9, %xmm9 vpxor %xmm5, %xmm8, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpslldq $4, %xmm7, %xmm9 vpslldq $8, %xmm7, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpslldq $12, %xmm7, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpshufd $255, %xmm8, %xmm10 vaesenclast %xmm6, %xmm10, %xmm10 vpxor %xmm7, %xmm9, %xmm9 vpxor %xmm9, %xmm10, %xmm9 vpslldq $4, %xmm8, %xmm10 vpslldq $8, %xmm8, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpslldq $12, %xmm8, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpshufb %xmm3, %xmm9, %xmm11 vaesenclast .LCPI0_4(%rip), %xmm11, %xmm11 vpxor %xmm8, %xmm10, %xmm10 vpxor %xmm10, %xmm11, %xmm10 vpslldq $4, %xmm9, %xmm11 vpslldq $8, %xmm9, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpslldq $12, %xmm9, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpshufd $255, %xmm10, %xmm12 vaesenclast %xmm6, %xmm12, %xmm12 vpxor %xmm9, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpslldq $4, %xmm10, %xmm12 vpslldq $8, %xmm10, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpslldq $12, %xmm10, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpshufb %xmm3, %xmm11, %xmm13 vaesenclast .LCPI0_5(%rip), %xmm13, %xmm13 vpxor %xmm10, %xmm12, %xmm12 vpxor %xmm12, %xmm13, %xmm12 vpslldq $4, %xmm11, %xmm13 vpslldq $8, %xmm11, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpslldq $12, %xmm11, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpshufd $255, %xmm12, %xmm14 vaesenclast %xmm6, %xmm14, %xmm14 vpxor %xmm11, %xmm13, %xmm13 vpxor %xmm13, %xmm14, %xmm13 vpslldq $4, %xmm12, %xmm14 vpslldq $8, %xmm12, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpshufb %xmm3, %xmm13, %xmm15 vaesenclast .LCPI0_6(%rip), %xmm15, %xmm15 vpslldq $12, %xmm12, %xmm3 vpxor %xmm3, %xmm14, %xmm3 vpxor %xmm3, %xmm12, %xmm3 vpxor %xmm3, %xmm15, %xmm3 vpslldq $4, %xmm13, %xmm14 vpslldq $8, %xmm13, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpslldq $12, %xmm13, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpshufd $255, %xmm3, %xmm15 vaesenclast %xmm6, %xmm15, %xmm6 vpxor %xmm13, %xmm14, %xmm14 vpxor %xmm6, %xmm14, %xmm6 vpslldq $4, %xmm3, %xmm14 vpslldq $8, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpslldq $12, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpshufb .LCPI0_0(%rip), %xmm6, %xmm15 vaesenclast .LCPI0_7(%rip), %xmm15, %xmm15 vpxor %xmm3, %xmm14, %xmm14 vpxor %xmm14, %xmm15, %xmm14 vmovdqa %xmm0, (%rdi) vmovdqa %xmm1, 16(%rdi) vmovdqa %xmm2, 32(%rdi) vmovdqa %xmm4, 48(%rdi) vmovdqa %xmm5, 64(%rdi) vmovdqa %xmm7, 80(%rdi) vmovdqa %xmm8, 96(%rdi) vmovdqa %xmm9, 112(%rdi) vmovdqa %xmm10, 128(%rdi) vmovdqa %xmm11, 144(%rdi) vmovdqa %xmm12, 160(%rdi) vmovdqa %xmm13, 176(%rdi) vmovdqa %xmm3, 192(%rdi) vmovdqa %xmm6, 208(%rdi) vmovdqa %xmm14, 224(%rdi) .LBB0_2: xorl %eax, %eax cmpq $32, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes256gcmdndk_haswell_init, .Lfunc_end0-haberdashery_aes256gcmdndk_haswell_init .cfi_endproc .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI1_0: .long 1 .LCPI1_5: .long 0x00000002 .LCPI1_6: .long 0x0c0f0e0d .LCPI1_7: .long 0x00000004 .LCPI1_8: .long 0x00000008 .LCPI1_9: .long 0x00000010 .LCPI1_10: .long 0x00000020 .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI1_1: .quad 2 .quad 0 .LCPI1_2: .quad 4 .quad 0 .LCPI1_3: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI1_4: .quad 4294967297 .quad 4294967297 .LCPI1_11: .quad 274877907008 .quad 274877907008 .LCPI1_12: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_13: .zero 8 .quad -4467570830351532032 .LCPI1_14: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .LCPI1_15: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .LCPI1_16: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .LCPI1_17: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .LCPI1_18: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .LCPI1_19: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 7 .LCPI1_20: .long 8 .long 0 .long 0 .long 0 .LCPI1_21: .long 1 .long 0 .long 0 .long 0 .LCPI1_22: .long 3 .long 0 .long 0 .long 0 .LCPI1_23: .long 5 .long 0 .long 0 .long 0 .LCPI1_24: .long 6 .long 0 .long 0 .long 0 .LCPI1_25: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .LCPI1_26: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_27: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_28: .zero 16 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI1_29: .quad -4467570830351532032 .section .rodata,"a",@progbits .LCPI1_30: .byte 8 .byte 0 .LCPI1_31: .byte 5 .byte 0 .LCPI1_32: .byte 2 .byte 0 .section .text.haberdashery_aes256gcmdndk_haswell_encrypt,"ax",@progbits .globl haberdashery_aes256gcmdndk_haswell_encrypt .p2align 4, 0x90 .type haberdashery_aes256gcmdndk_haswell_encrypt,@function haberdashery_aes256gcmdndk_haswell_encrypt: .cfi_startproc pushq %r15 .cfi_def_cfa_offset 16 pushq %r14 .cfi_def_cfa_offset 24 pushq %r13 .cfi_def_cfa_offset 32 pushq %r12 .cfi_def_cfa_offset 40 pushq %rbx .cfi_def_cfa_offset 48 subq $432, %rsp .cfi_def_cfa_offset 480 .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r13, -32 .cfi_offset %r14, -24 .cfi_offset %r15, -16 movq 480(%rsp), %r15 xorl %eax, %eax cmpq 496(%rsp), %r15 jne .LBB1_47 movq %r15, %r10 shrq $5, %r10 cmpq $2147483646, %r10 ja .LBB1_47 movabsq $2305843009213693950, %r10 cmpq %r10, %r8 ja .LBB1_47 cmpq $24, %rdx jne .LBB1_47 cmpq $16, 512(%rsp) jne .LBB1_47 vmovsd 4(%rsi), %xmm0 vmovss (%rsi), %xmm1 vshufps $65, %xmm0, %xmm1, %xmm0 vpbroadcastd .LCPI1_0(%rip), %xmm1 vpinsrd $1, 12(%rsi), %xmm1, %xmm1 vpinsrd $2, 16(%rsi), %xmm1, %xmm1 vpinsrd $3, 20(%rsi), %xmm1, %xmm1 vmovaps (%rdi), %xmm2 vxorps %xmm0, %xmm2, %xmm0 vxorps %xmm1, %xmm2, %xmm1 vmovss .LCPI1_5(%rip), %xmm3 vxorps %xmm3, %xmm0, %xmm2 vxorps %xmm3, %xmm1, %xmm3 vmovss .LCPI1_7(%rip), %xmm5 vxorps %xmm5, %xmm0, %xmm4 vxorps %xmm5, %xmm1, %xmm5 vmovaps 16(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 32(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 48(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 64(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 80(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 96(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 112(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 128(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 144(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 160(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 176(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 192(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 208(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 224(%rdi), %xmm6 #APP vaesenclast %xmm6, %xmm0, %xmm0 vaesenclast %xmm6, %xmm1, %xmm1 vaesenclast %xmm6, %xmm2, %xmm2 vaesenclast %xmm6, %xmm3, %xmm3 vaesenclast %xmm6, %xmm4, %xmm4 vaesenclast %xmm6, %xmm5, %xmm5 #NO_APP vpxor %xmm4, %xmm5, %xmm4 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm2, %xmm3, %xmm1 vpxor %xmm0, %xmm1, %xmm5 vpxor %xmm0, %xmm4, %xmm4 vpslldq $4, %xmm5, %xmm0 vpslldq $8, %xmm5, %xmm1 vpxor %xmm1, %xmm0, %xmm1 vpslldq $12, %xmm5, %xmm2 vpbroadcastd .LCPI1_6(%rip), %xmm0 vpshufb %xmm0, %xmm4, %xmm3 vaesenclast .LCPI1_4(%rip), %xmm3, %xmm3 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm6 vmovdqa %xmm5, 80(%rsp) vaesenc %xmm4, %xmm5, %xmm1 vpslldq $4, %xmm4, %xmm2 vpslldq $8, %xmm4, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpslldq $12, %xmm4, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpshufd $255, %xmm6, %xmm3 vpxor %xmm12, %xmm12, %xmm12 vaesenclast %xmm12, %xmm3, %xmm3 vmovdqa %xmm4, 48(%rsp) vpxor %xmm4, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm8 vbroadcastss .LCPI1_5(%rip), %xmm3 vbroadcastss .LCPI1_6(%rip), %xmm2 vmovdqa %xmm6, 304(%rsp) #APP vaesenc %xmm6, %xmm1, %xmm1 vpslldq $4, %xmm6, %xmm4 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm6, %xmm4, %xmm4 vpshufb %xmm2, %xmm8, %xmm7 vaesenclast %xmm3, %xmm7, %xmm7 vpxor %xmm4, %xmm7, %xmm7 #NO_APP vmovaps %xmm7, %xmm9 vmovdqa %xmm8, 64(%rsp) #APP vaesenc %xmm8, %xmm1, %xmm1 vpslldq $4, %xmm8, %xmm3 vpslldq $8, %xmm8, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpslldq $12, %xmm8, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm8, %xmm3 vpshufd $255, %xmm9, %xmm7 vaesenclast %xmm12, %xmm7, %xmm7 vpxor %xmm3, %xmm7, %xmm7 #NO_APP vbroadcastss .LCPI1_7(%rip), %xmm3 vmovaps %xmm9, 256(%rsp) #APP vaesenc %xmm9, %xmm1, %xmm1 vpslldq $4, %xmm9, %xmm4 vpslldq $8, %xmm9, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm9, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm9, %xmm4 vpshufb %xmm2, %xmm7, %xmm6 vaesenclast %xmm3, %xmm6, %xmm6 vpxor %xmm4, %xmm6, %xmm6 #NO_APP vmovaps %xmm7, 240(%rsp) #APP vaesenc %xmm7, %xmm1, %xmm1 vpslldq $4, %xmm7, %xmm3 vpslldq $8, %xmm7, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpslldq $12, %xmm7, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm7, %xmm3, %xmm3 vpshufd $255, %xmm6, %xmm10 vaesenclast %xmm12, %xmm10, %xmm10 vpxor %xmm3, %xmm10, %xmm10 #NO_APP vbroadcastss .LCPI1_8(%rip), %xmm3 #APP vaesenc %xmm6, %xmm1, %xmm1 vpslldq $4, %xmm6, %xmm4 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm6, %xmm4, %xmm4 vpshufb %xmm2, %xmm10, %xmm7 vaesenclast %xmm3, %xmm7, %xmm7 vpxor %xmm4, %xmm7, %xmm7 #NO_APP #APP vaesenc %xmm10, %xmm1, %xmm1 vpslldq $4, %xmm10, %xmm3 vpslldq $8, %xmm10, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpslldq $12, %xmm10, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm10, %xmm3 vpshufd $255, %xmm7, %xmm11 vaesenclast %xmm12, %xmm11, %xmm11 vpxor %xmm3, %xmm11, %xmm11 #NO_APP vbroadcastss .LCPI1_9(%rip), %xmm3 #APP vaesenc %xmm7, %xmm1, %xmm1 vpslldq $4, %xmm7, %xmm4 vpslldq $8, %xmm7, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm7, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm7, %xmm4, %xmm4 vpshufb %xmm2, %xmm11, %xmm15 vaesenclast %xmm3, %xmm15, %xmm15 vpxor %xmm4, %xmm15, %xmm15 #NO_APP #APP vaesenc %xmm11, %xmm1, %xmm1 vpslldq $4, %xmm11, %xmm3 vpslldq $8, %xmm11, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpslldq $12, %xmm11, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm11, %xmm3 vpshufd $255, %xmm15, %xmm14 vaesenclast %xmm12, %xmm14, %xmm14 vpxor %xmm3, %xmm14, %xmm14 #NO_APP vbroadcastss .LCPI1_10(%rip), %xmm3 vmovaps %xmm15, 96(%rsp) #APP vaesenc %xmm15, %xmm1, %xmm1 vpslldq $4, %xmm15, %xmm4 vpslldq $8, %xmm15, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm15, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm15, %xmm4 vpshufb %xmm2, %xmm14, %xmm13 vaesenclast %xmm3, %xmm13, %xmm13 vpxor %xmm4, %xmm13, %xmm13 #NO_APP vmovdqa %xmm13, %xmm9 vpslldq $4, %xmm14, %xmm2 vpunpcklqdq %xmm14, %xmm12, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vinsertps $55, %xmm14, %xmm0, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpshufd $255, %xmm13, %xmm3 vaesenclast %xmm12, %xmm3, %xmm3 vpxor %xmm2, %xmm14, %xmm2 vpxor %xmm2, %xmm3, %xmm4 vpslldq $4, %xmm13, %xmm2 vpunpcklqdq %xmm13, %xmm12, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vinsertps $55, %xmm13, %xmm0, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpshufb %xmm0, %xmm4, %xmm0 vaesenclast .LCPI1_11(%rip), %xmm0, %xmm0 vpxor %xmm2, %xmm13, %xmm2 vpxor %xmm2, %xmm0, %xmm2 vmovaps %xmm14, 288(%rsp) vaesenc %xmm14, %xmm1, %xmm0 vaesenc %xmm13, %xmm0, %xmm0 vmovdqa %xmm4, 32(%rsp) vaesenc %xmm4, %xmm0, %xmm0 vmovdqa %xmm2, 272(%rsp) vaesenclast %xmm2, %xmm0, %xmm0 vpshufb .LCPI1_12(%rip), %xmm0, %xmm0 vpsrlq $63, %xmm0, %xmm1 vpaddq %xmm0, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm2 vpor %xmm2, %xmm0, %xmm0 vpblendd $12, %xmm1, %xmm12, %xmm1 vpsllq $63, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpsllq $62, %xmm1, %xmm2 vpsllq $57, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpxor %xmm1, %xmm0, %xmm15 vpclmulqdq $0, %xmm15, %xmm15, %xmm0 vpbroadcastq .LCPI1_29(%rip), %xmm13 vpclmulqdq $16, %xmm13, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $17, %xmm15, %xmm15, %xmm1 vpshufd $78, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm13, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm4 vpclmulqdq $16, %xmm15, %xmm4, %xmm0 vpclmulqdq $1, %xmm15, %xmm4, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm15, %xmm4, %xmm1 vpslldq $8, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm13, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpclmulqdq $17, %xmm15, %xmm4, %xmm3 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpshufd $78, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm13, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm14 vpclmulqdq $0, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm13, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $16, %xmm13, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vmovdqa %xmm4, 336(%rsp) vpclmulqdq $17, %xmm4, %xmm4, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm14, %xmm14, %xmm2 vpxor %xmm1, %xmm0, %xmm8 vpclmulqdq $16, %xmm13, %xmm2, %xmm0 vpshufd $78, %xmm2, %xmm1 vpclmulqdq $16, %xmm15, %xmm8, %xmm2 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $1, %xmm15, %xmm8, %xmm1 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm13, %xmm0, %xmm2 vpclmulqdq $0, %xmm15, %xmm8, %xmm3 vpslldq $8, %xmm1, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $17, %xmm14, %xmm14, %xmm4 vpshufd $78, %xmm0, %xmm0 vpclmulqdq $16, %xmm13, %xmm3, %xmm5 vpxor %xmm0, %xmm4, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vmovdqa %xmm0, 368(%rsp) vpshufd $78, %xmm3, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpsrldq $8, %xmm1, %xmm1 vmovdqa %xmm8, 192(%rsp) vpclmulqdq $17, %xmm15, %xmm8, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm13, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm12 testq %r8, %r8 vmovdqa %xmm6, %xmm1 vmovdqa %xmm6, 160(%rsp) vmovdqa %xmm10, %xmm3 vmovdqa %xmm10, 144(%rsp) vmovaps %xmm7, 224(%rsp) vmovdqa %xmm11, 208(%rsp) vmovdqa %xmm14, 384(%rsp) vmovdqa %xmm9, 176(%rsp) je .LBB1_22 cmpq $96, %r8 jb .LBB1_7 vmovdqu 32(%rcx), %xmm1 vmovdqu 48(%rcx), %xmm2 vmovdqu 64(%rcx), %xmm3 vmovdqu 80(%rcx), %xmm4 vmovdqa .LCPI1_12(%rip), %xmm0 vpshufb %xmm0, %xmm4, %xmm4 vpclmulqdq $0, %xmm4, %xmm15, %xmm5 vpshufb %xmm0, %xmm1, %xmm6 vpclmulqdq $1, %xmm4, %xmm15, %xmm7 vpshufb %xmm0, %xmm2, %xmm1 vpclmulqdq $16, %xmm4, %xmm15, %xmm2 vpshufb %xmm0, %xmm3, %xmm3 vpclmulqdq $17, %xmm4, %xmm15, %xmm4 vpxor %xmm7, %xmm2, %xmm2 vmovdqa 336(%rsp), %xmm8 vpclmulqdq $0, %xmm3, %xmm8, %xmm7 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $1, %xmm3, %xmm8, %xmm7 vpxor %xmm7, %xmm2, %xmm2 vpclmulqdq $16, %xmm3, %xmm8, %xmm7 vpxor %xmm7, %xmm2, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm3 vmovdqa 368(%rsp), %xmm8 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $0, %xmm1, %xmm14, %xmm4 vpclmulqdq $1, %xmm1, %xmm14, %xmm7 vpxor %xmm7, %xmm2, %xmm2 vmovdqa 192(%rsp), %xmm9 vpclmulqdq $0, %xmm6, %xmm9, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $16, %xmm1, %xmm14, %xmm7 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $1, %xmm6, %xmm9, %xmm5 vpxor %xmm5, %xmm7, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $16, %xmm6, %xmm9, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $17, %xmm6, %xmm9, %xmm5 vmovdqu (%rcx), %xmm6 vpxor %xmm5, %xmm3, %xmm3 vmovdqu 16(%rcx), %xmm5 vpshufb %xmm0, %xmm6, %xmm6 vpshufb %xmm0, %xmm5, %xmm5 vpclmulqdq $17, %xmm1, %xmm14, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $0, %xmm5, %xmm12, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $1, %xmm5, %xmm12, %xmm4 vpxor %xmm4, %xmm2, %xmm4 vpclmulqdq $16, %xmm5, %xmm12, %xmm7 vmovdqa %xmm12, %xmm10 vpclmulqdq $17, %xmm5, %xmm12, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm6, %xmm8, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $1, %xmm6, %xmm8, %xmm3 vpxor %xmm3, %xmm7, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm6, %xmm8, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $17, %xmm6, %xmm8, %xmm4 vpxor %xmm4, %xmm1, %xmm1 addq $96, %rcx leaq -96(%r8), %rsi cmpq $96, %rsi jb .LBB1_21 vmovdqa 336(%rsp), %xmm11 vmovdqa 384(%rsp), %xmm14 vmovdqa 192(%rsp), %xmm12 .p2align 4, 0x90 .LBB1_20: vmovdqu (%rcx), %xmm5 vmovdqu 32(%rcx), %xmm6 vmovdqu 48(%rcx), %xmm4 vmovdqu 64(%rcx), %xmm7 vmovdqu 80(%rcx), %xmm8 vpslldq $8, %xmm3, %xmm9 vpxor %xmm2, %xmm9, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpclmulqdq $16, %xmm13, %xmm2, %xmm9 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm9, %xmm2 vpclmulqdq $16, %xmm13, %xmm2, %xmm9 vpxor %xmm3, %xmm1, %xmm1 vpshufd $78, %xmm2, %xmm2 vpshufb %xmm0, %xmm5, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpshufb %xmm0, %xmm8, %xmm3 vpclmulqdq $0, %xmm3, %xmm15, %xmm5 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $1, %xmm3, %xmm15, %xmm8 vpxor %xmm1, %xmm9, %xmm1 vpclmulqdq $16, %xmm3, %xmm15, %xmm9 vpshufb %xmm0, %xmm6, %xmm2 vpclmulqdq $17, %xmm3, %xmm15, %xmm3 vpshufb %xmm0, %xmm7, %xmm6 vpclmulqdq $0, %xmm6, %xmm11, %xmm7 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $1, %xmm6, %xmm11, %xmm9 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $16, %xmm6, %xmm11, %xmm7 vpshufb %xmm0, %xmm4, %xmm4 vpclmulqdq $17, %xmm6, %xmm11, %xmm6 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm4, %xmm14, %xmm9 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $1, %xmm4, %xmm14, %xmm8 vpxor %xmm3, %xmm6, %xmm3 vpclmulqdq $16, %xmm4, %xmm14, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm2, %xmm12, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $17, %xmm4, %xmm14, %xmm4 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $1, %xmm2, %xmm12, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm2, %xmm12, %xmm8 vpxor %xmm6, %xmm7, %xmm6 vpxor %xmm4, %xmm8, %xmm4 vmovdqa 368(%rsp), %xmm8 vmovdqu 16(%rcx), %xmm7 vpshufb %xmm0, %xmm7, %xmm7 vpclmulqdq $16, %xmm2, %xmm12, %xmm2 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $0, %xmm7, %xmm10, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $1, %xmm7, %xmm10, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $16, %xmm7, %xmm10, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpxor %xmm2, %xmm6, %xmm5 vpclmulqdq $17, %xmm7, %xmm10, %xmm2 vpxor %xmm2, %xmm3, %xmm6 vpclmulqdq $0, %xmm1, %xmm8, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $1, %xmm1, %xmm8, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $16, %xmm1, %xmm8, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $17, %xmm1, %xmm8, %xmm1 vpxor %xmm1, %xmm6, %xmm1 addq $96, %rcx addq $-96, %rsi cmpq $95, %rsi ja .LBB1_20 .LBB1_21: vpslldq $8, %xmm3, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpsrldq $8, %xmm3, %xmm2 vpclmulqdq $16, %xmm13, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm13, %xmm0, %xmm3 vpxor %xmm2, %xmm1, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm3, %xmm0, %xmm2 vmovdqa 160(%rsp), %xmm6 vmovdqa 144(%rsp), %xmm7 vmovdqa 176(%rsp), %xmm9 vmovdqa %xmm10, %xmm12 vmovdqa 48(%rsp), %xmm10 vmovdqa 32(%rsp), %xmm8 cmpq $16, %rsi vmovdqa 64(%rsp), %xmm14 vmovdqa 80(%rsp), %xmm11 jae .LBB1_9 jmp .LBB1_14 .LBB1_22: vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) testq %r15, %r15 vmovdqa 96(%rsp), %xmm5 vmovdqa 32(%rsp), %xmm8 vmovdqa 64(%rsp), %xmm14 vmovdqa 80(%rsp), %xmm11 vmovdqa %xmm1, %xmm6 vmovdqa %xmm3, %xmm7 vmovdqa 48(%rsp), %xmm10 jne .LBB1_27 jmp .LBB1_46 .LBB1_7: movq %r8, %rsi vmovdqa 32(%rsp), %xmm8 vpxor %xmm2, %xmm2, %xmm2 vmovdqa %xmm1, %xmm6 vmovdqa %xmm3, %xmm7 vmovdqa 48(%rsp), %xmm10 cmpq $16, %rsi vmovdqa 64(%rsp), %xmm14 vmovdqa 80(%rsp), %xmm11 jb .LBB1_14 .LBB1_9: leaq -16(%rsi), %rdx testb $16, %dl je .LBB1_10 cmpq $16, %rdx jae .LBB1_12 .LBB1_15: testq %rdx, %rdx vmovdqa %xmm2, (%rsp) je .LBB1_23 .LBB1_16: vmovdqa %xmm12, 320(%rsp) vmovdqa %xmm15, 128(%rsp) movq %r9, %r14 movq %r8, %rbx vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 112(%rsp) leaq 112(%rsp), %rdi movq %rcx, %rsi callq *memcpy@GOTPCREL(%rip) vmovdqa 112(%rsp), %xmm1 testq %r15, %r15 je .LBB1_17 movabsq $-68719476704, %rax leaq (%r15,%rax), %rcx incq %rax cmpq %rax, %rcx movl $0, %eax vmovdqa 48(%rsp), %xmm10 vmovdqa 80(%rsp), %xmm11 vmovdqa 64(%rsp), %xmm14 vmovdqa 160(%rsp), %xmm6 vmovdqa 144(%rsp), %xmm7 vmovdqa 96(%rsp), %xmm5 vmovdqa 176(%rsp), %xmm9 vmovdqa 32(%rsp), %xmm8 vpbroadcastq .LCPI1_29(%rip), %xmm4 vmovdqa 128(%rsp), %xmm15 vmovdqa 320(%rsp), %xmm12 jb .LBB1_47 movq %rbx, %r8 movq %r14, %r9 vpshufb .LCPI1_12(%rip), %xmm1, %xmm0 vpxor (%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm15, %xmm1 vpclmulqdq $1, %xmm0, %xmm15, %xmm2 vpclmulqdq $16, %xmm0, %xmm15, %xmm3 vpclmulqdq $17, %xmm0, %xmm15, %xmm0 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $16, %xmm4, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm4, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vmovdqa %xmm0, (%rsp) jmp .LBB1_27 .LBB1_10: vmovdqu (%rcx), %xmm0 vpshufb .LCPI1_12(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm15, %xmm1 vpclmulqdq $1, %xmm0, %xmm15, %xmm2 vpclmulqdq $16, %xmm0, %xmm15, %xmm3 addq $16, %rcx vpclmulqdq $17, %xmm0, %xmm15, %xmm0 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $16, %xmm13, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm13, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm2 movq %rdx, %rsi cmpq $16, %rdx jb .LBB1_15 .LBB1_12: vmovdqa .LCPI1_12(%rip), %xmm0 .p2align 4, 0x90 .LBB1_13: vmovdqu (%rcx), %xmm1 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $0, %xmm1, %xmm15, %xmm2 vpclmulqdq $1, %xmm1, %xmm15, %xmm3 vmovdqu 16(%rcx), %xmm4 vpclmulqdq $16, %xmm1, %xmm15, %xmm5 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $17, %xmm1, %xmm15, %xmm1 vpslldq $8, %xmm3, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm13, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm13, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufb %xmm0, %xmm4, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $0, %xmm1, %xmm15, %xmm2 addq $32, %rcx vpclmulqdq $1, %xmm1, %xmm15, %xmm3 addq $-32, %rsi vpclmulqdq $16, %xmm1, %xmm15, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm15, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm13, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm13, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm2 cmpq $15, %rsi ja .LBB1_13 .LBB1_14: movq %rsi, %rdx testq %rdx, %rdx vmovdqa %xmm2, (%rsp) jne .LBB1_16 .LBB1_23: testq %r15, %r15 vmovdqa 96(%rsp), %xmm5 je .LBB1_46 movabsq $-68719476704, %rcx leaq (%r15,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB1_47 .LBB1_27: movq 488(%rsp), %rdx cmpq $96, %r15 vmovdqa %xmm15, 128(%rsp) jb .LBB1_28 vmovdqa %xmm12, 320(%rsp) leaq 96(%r9), %rcx leaq 96(%rdx), %rax vpxor .LCPI1_14(%rip), %xmm11, %xmm0 vpxor .LCPI1_15(%rip), %xmm11, %xmm1 vpxor .LCPI1_16(%rip), %xmm11, %xmm2 vpxor .LCPI1_17(%rip), %xmm11, %xmm3 vpxor .LCPI1_18(%rip), %xmm11, %xmm4 vmovdqa %xmm5, %xmm13 vpxor .LCPI1_19(%rip), %xmm11, %xmm5 #APP vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm10, %xmm1, %xmm1 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm10, %xmm4, %xmm4 vaesenc %xmm10, %xmm5, %xmm5 #NO_APP vmovdqa 304(%rsp), %xmm12 #APP vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm14, %xmm0, %xmm0 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm14, %xmm2, %xmm2 vaesenc %xmm14, %xmm3, %xmm3 vaesenc %xmm14, %xmm4, %xmm4 vaesenc %xmm14, %xmm5, %xmm5 #NO_APP vmovaps 256(%rsp), %xmm11 #APP vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 #NO_APP vmovaps 240(%rsp), %xmm11 #APP vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP vmovaps 224(%rsp), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 208(%rsp), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm13, %xmm0, %xmm0 vaesenc %xmm13, %xmm1, %xmm1 vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm13, %xmm3, %xmm3 vaesenc %xmm13, %xmm4, %xmm4 vaesenc %xmm13, %xmm5, %xmm5 #NO_APP vmovaps 288(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 #NO_APP vmovdqa 272(%rsp), %xmm6 #APP vaesenclast %xmm6, %xmm0, %xmm0 vaesenclast %xmm6, %xmm1, %xmm1 vaesenclast %xmm6, %xmm2, %xmm2 vaesenclast %xmm6, %xmm3, %xmm3 vaesenclast %xmm6, %xmm4, %xmm4 vaesenclast %xmm6, %xmm5, %xmm5 #NO_APP vpxor (%r9), %xmm0, %xmm13 vpxor 16(%r9), %xmm1, %xmm14 vpxor 32(%r9), %xmm2, %xmm1 vpxor 48(%r9), %xmm3, %xmm7 vpxor 64(%r9), %xmm4, %xmm11 vpxor 80(%r9), %xmm5, %xmm2 vmovdqu %xmm13, (%rdx) vmovdqu %xmm14, 16(%rdx) vmovdqu %xmm1, 32(%rdx) vmovdqu %xmm7, 48(%rdx) vmovdqu %xmm11, 64(%rdx) leaq -96(%r15), %rbx vmovdqu %xmm2, 80(%rdx) cmpq $96, %rbx jb .LBB1_34 vpmovsxbq .LCPI1_30(%rip), %xmm8 vmovdqa (%rsp), %xmm0 vmovdqa %xmm14, %xmm10 vmovdqa .LCPI1_12(%rip), %xmm9 .p2align 4, 0x90 .LBB1_37: vmovdqa %xmm7, 352(%rsp) vmovdqa %xmm1, 400(%rsp) vmovdqa %xmm8, 16(%rsp) vpshufb %xmm9, %xmm8, %xmm3 vpaddd .LCPI1_21(%rip), %xmm8, %xmm4 vpshufb %xmm9, %xmm4, %xmm5 vpaddd .LCPI1_1(%rip), %xmm8, %xmm4 vpshufb %xmm9, %xmm4, %xmm6 vpaddd .LCPI1_22(%rip), %xmm8, %xmm4 vpshufb %xmm9, %xmm4, %xmm7 vpaddd .LCPI1_2(%rip), %xmm8, %xmm4 vpshufb %xmm9, %xmm4, %xmm12 vpmovsxbq .LCPI1_31(%rip), %xmm4 vpaddd 16(%rsp), %xmm4, %xmm4 vpshufb %xmm9, %xmm4, %xmm8 vpshufb %xmm9, %xmm13, %xmm4 vpxor %xmm4, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) vpshufb %xmm9, %xmm2, %xmm0 vmovdqa 80(%rsp), %xmm1 vpxor %xmm3, %xmm1, %xmm13 vpxor %xmm5, %xmm1, %xmm14 vpxor %xmm6, %xmm1, %xmm15 vpxor %xmm7, %xmm1, %xmm2 vpxor %xmm1, %xmm12, %xmm3 vpxor %xmm1, %xmm8, %xmm12 vmovaps 48(%rsp), %xmm5 #APP vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm5, %xmm14, %xmm14 vaesenc %xmm5, %xmm15, %xmm15 vaesenc %xmm5, %xmm2, %xmm2 vaesenc %xmm5, %xmm3, %xmm3 vaesenc %xmm5, %xmm12, %xmm12 #NO_APP vpxor %xmm6, %xmm6, %xmm6 vxorps %xmm5, %xmm5, %xmm5 vpxor %xmm7, %xmm7, %xmm7 vmovaps 304(%rsp), %xmm4 vmovaps 128(%rsp), %xmm1 #APP vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm12, %xmm12 vpclmulqdq $16, %xmm1, %xmm0, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm1, %xmm0, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $1, %xmm1, %xmm0, %xmm8 vpxor %xmm6, %xmm8, %xmm6 #NO_APP vpshufb %xmm9, %xmm11, %xmm0 vmovaps 64(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm12, %xmm12 #NO_APP vmovaps 256(%rsp), %xmm1 vmovaps 336(%rsp), %xmm4 #APP vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm12, %xmm12 vpclmulqdq $16, %xmm4, %xmm0, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm4, %xmm0, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm4, %xmm0, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $1, %xmm4, %xmm0, %xmm8 vpxor %xmm6, %xmm8, %xmm6 #NO_APP vmovdqa 352(%rsp), %xmm0 vpshufb %xmm9, %xmm0, %xmm0 vmovaps 240(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm12, %xmm12 #NO_APP vmovaps 160(%rsp), %xmm1 vmovaps 384(%rsp), %xmm4 #APP vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm12, %xmm12 vpclmulqdq $16, %xmm4, %xmm0, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm4, %xmm0, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm4, %xmm0, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $1, %xmm4, %xmm0, %xmm8 vpxor %xmm6, %xmm8, %xmm6 #NO_APP vmovdqa 400(%rsp), %xmm0 vpshufb %xmm9, %xmm0, %xmm0 vmovaps 144(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm12, %xmm12 #NO_APP vmovaps 192(%rsp), %xmm11 vmovaps 224(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm12, %xmm12 vpclmulqdq $16, %xmm11, %xmm0, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm11, %xmm0, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm11, %xmm0, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $1, %xmm11, %xmm0, %xmm8 vpxor %xmm6, %xmm8, %xmm6 #NO_APP vpshufb %xmm9, %xmm10, %xmm0 vmovaps 208(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm12, %xmm12 #NO_APP vmovaps 96(%rsp), %xmm1 vmovaps 320(%rsp), %xmm4 #APP vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm12, %xmm12 vpclmulqdq $16, %xmm4, %xmm0, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm4, %xmm0, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm4, %xmm0, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $1, %xmm4, %xmm0, %xmm8 vpxor %xmm6, %xmm8, %xmm6 #NO_APP vmovaps 288(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm12, %xmm12 #NO_APP vmovdqa 176(%rsp), %xmm1 vmovaps 368(%rsp), %xmm4 vmovaps (%rsp), %xmm8 #APP vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm12, %xmm12 vpclmulqdq $16, %xmm4, %xmm8, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpclmulqdq $0, %xmm4, %xmm8, %xmm0 vpxor %xmm0, %xmm7, %xmm7 vpclmulqdq $17, %xmm4, %xmm8, %xmm0 vpxor %xmm0, %xmm5, %xmm5 vpclmulqdq $1, %xmm4, %xmm8, %xmm0 vpxor %xmm0, %xmm6, %xmm6 #NO_APP vpxor %xmm1, %xmm1, %xmm1 vpunpcklqdq %xmm6, %xmm1, %xmm0 vpxor %xmm0, %xmm7, %xmm0 vpunpckhqdq %xmm1, %xmm6, %xmm4 vpbroadcastq .LCPI1_29(%rip), %xmm1 vpclmulqdq $16, %xmm1, %xmm0, %xmm6 vpxor %xmm4, %xmm5, %xmm4 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm6, %xmm0 vpshufd $78, %xmm0, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $16, %xmm1, %xmm0, %xmm0 vmovaps 32(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm12, %xmm12 #NO_APP vmovdqa 272(%rsp), %xmm5 #APP vaesenclast %xmm5, %xmm13, %xmm13 vaesenclast %xmm5, %xmm14, %xmm14 vaesenclast %xmm5, %xmm15, %xmm15 vaesenclast %xmm5, %xmm2, %xmm2 vaesenclast %xmm5, %xmm3, %xmm3 vaesenclast %xmm5, %xmm12, %xmm12 #NO_APP vpxor (%rcx), %xmm13, %xmm13 vpxor 16(%rcx), %xmm14, %xmm10 vpxor 32(%rcx), %xmm15, %xmm1 vpxor 48(%rcx), %xmm2, %xmm7 vpxor 64(%rcx), %xmm3, %xmm11 vpxor %xmm0, %xmm4, %xmm0 vpxor 80(%rcx), %xmm12, %xmm2 vmovdqa 16(%rsp), %xmm8 addq $96, %rcx vmovdqu %xmm13, (%rax) vmovdqu %xmm10, 16(%rax) vmovdqu %xmm1, 32(%rax) vmovdqu %xmm7, 48(%rax) vmovdqu %xmm11, 64(%rax) vmovdqu %xmm2, 80(%rax) addq $96, %rax addq $-96, %rbx vpaddd .LCPI1_24(%rip), %xmm8, %xmm8 cmpq $95, %rbx ja .LBB1_37 vmovdqa %xmm7, 352(%rsp) vmovdqa %xmm1, %xmm12 vmovdqa %xmm0, (%rsp) vmovdqa %xmm8, 16(%rsp) vmovdqa 128(%rsp), %xmm15 jmp .LBB1_35 .LBB1_28: vpmovsxbq .LCPI1_32(%rip), %xmm0 vmovdqa %xmm0, 16(%rsp) movq %r15, %rbx vmovdqa (%rsp), %xmm4 movq %r8, %r12 cmpq $16, %rbx jae .LBB1_39 .LBB1_30: movq %rdx, %r14 movq %r9, %rsi vmovdqa 16(%rsp), %xmm11 jmp .LBB1_31 .LBB1_17: movq %rbx, %r8 jmp .LBB1_44 .LBB1_34: vmovdqa %xmm7, 352(%rsp) vmovdqa %xmm1, %xmm12 vmovdqa %xmm14, %xmm10 vpmovsxbq .LCPI1_30(%rip), %xmm0 vmovdqa %xmm0, 16(%rsp) .LBB1_35: vmovdqa 192(%rsp), %xmm14 vmovdqa .LCPI1_12(%rip), %xmm3 vpshufb %xmm3, %xmm2, %xmm2 vpclmulqdq $0, %xmm2, %xmm15, %xmm4 vpshufb %xmm3, %xmm11, %xmm5 vmovdqa 336(%rsp), %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm6 vpclmulqdq $1, %xmm5, %xmm0, %xmm7 vpshufb %xmm3, %xmm13, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm8 vpxor (%rsp), %xmm1, %xmm1 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpshufb %xmm3, %xmm10, %xmm0 vpclmulqdq $1, %xmm2, %xmm15, %xmm11 vpshufb %xmm3, %xmm12, %xmm9 vpclmulqdq $16, %xmm2, %xmm15, %xmm12 vmovdqa 352(%rsp), %xmm10 vpshufb %xmm3, %xmm10, %xmm3 vmovdqa 384(%rsp), %xmm13 vpclmulqdq $0, %xmm3, %xmm13, %xmm10 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $1, %xmm3, %xmm13, %xmm12 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm3, %xmm13, %xmm6 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm3, %xmm13, %xmm3 vpxor %xmm7, %xmm11, %xmm7 vpclmulqdq $17, %xmm2, %xmm15, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $0, %xmm9, %xmm14, %xmm5 vpxor %xmm6, %xmm12, %xmm6 vpclmulqdq $1, %xmm9, %xmm14, %xmm8 vpxor %xmm5, %xmm10, %xmm5 vpclmulqdq $16, %xmm9, %xmm14, %xmm10 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm14, %xmm5 vpxor %xmm6, %xmm8, %xmm6 vpxor %xmm6, %xmm7, %xmm6 vpxor %xmm5, %xmm3, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vmovdqa 320(%rsp), %xmm7 vpclmulqdq $0, %xmm0, %xmm7, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $1, %xmm0, %xmm7, %xmm4 vpxor %xmm4, %xmm10, %xmm4 vpclmulqdq $16, %xmm0, %xmm7, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $17, %xmm0, %xmm7, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa 368(%rsp), %xmm5 vpclmulqdq $0, %xmm1, %xmm5, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $1, %xmm1, %xmm5, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm1, %xmm5, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $17, %xmm1, %xmm5, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_29(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpshufd $78, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm4 movq %rax, %rdx movq %rcx, %r9 vmovdqa 96(%rsp), %xmm5 movq %r8, %r12 cmpq $16, %rbx jb .LBB1_30 .LBB1_39: vmovdqa 128(%rsp), %xmm12 vmovdqa 16(%rsp), %xmm11 vmovdqa 32(%rsp), %xmm7 vmovdqa 240(%rsp), %xmm6 vmovdqa 256(%rsp), %xmm1 vmovdqa 64(%rsp), %xmm0 vmovdqa 80(%rsp), %xmm15 vmovdqa 208(%rsp), %xmm13 vmovdqa 224(%rsp), %xmm10 vmovdqa 160(%rsp), %xmm14 vmovdqa 144(%rsp), %xmm8 vpbroadcastq .LCPI1_29(%rip), %xmm9 .p2align 4, 0x90 .LBB1_40: vmovdqa .LCPI1_12(%rip), %xmm3 vpshufb %xmm3, %xmm11, %xmm2 vpxor %xmm2, %xmm15, %xmm2 vaesenc 48(%rsp), %xmm2, %xmm2 vaesenc 304(%rsp), %xmm2, %xmm2 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm14, %xmm2, %xmm2 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm5, %xmm2, %xmm2 vaesenc 288(%rsp), %xmm2, %xmm2 vaesenc 176(%rsp), %xmm2, %xmm2 vaesenc %xmm7, %xmm2, %xmm2 vaesenclast 272(%rsp), %xmm2, %xmm2 vpxor (%r9), %xmm2, %xmm2 vpshufb %xmm3, %xmm2, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $1, %xmm3, %xmm12, %xmm4 vpclmulqdq $16, %xmm3, %xmm12, %xmm5 vmovdqu %xmm2, (%rdx) vpclmulqdq $0, %xmm3, %xmm12, %xmm2 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm3, %xmm12, %xmm3 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vmovdqa 96(%rsp), %xmm5 vpsrldq $8, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm9, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm9, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpxor %xmm2, %xmm4, %xmm4 leaq 16(%r9), %rsi leaq 16(%rdx), %r14 addq $-16, %rbx vpaddd .LCPI1_21(%rip), %xmm11, %xmm11 movq %r14, %rdx movq %rsi, %r9 cmpq $15, %rbx ja .LBB1_40 .LBB1_31: vmovdqa %xmm4, (%rsp) vmovdqa %xmm11, 16(%rsp) testq %rbx, %rbx je .LBB1_32 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 112(%rsp) leaq 112(%rsp), %rdi movq memcpy@GOTPCREL(%rip), %r13 movq %rbx, %rdx callq *%r13 vmovdqa 16(%rsp), %xmm0 vpshufb .LCPI1_12(%rip), %xmm0, %xmm0 vpxor 80(%rsp), %xmm0, %xmm0 vaesenc 48(%rsp), %xmm0, %xmm0 vaesenc 304(%rsp), %xmm0, %xmm0 vaesenc 64(%rsp), %xmm0, %xmm0 vaesenc 256(%rsp), %xmm0, %xmm0 vaesenc 240(%rsp), %xmm0, %xmm0 vaesenc 160(%rsp), %xmm0, %xmm0 vaesenc 144(%rsp), %xmm0, %xmm0 vaesenc 224(%rsp), %xmm0, %xmm0 vaesenc 208(%rsp), %xmm0, %xmm0 vaesenc 96(%rsp), %xmm0, %xmm0 vaesenc 288(%rsp), %xmm0, %xmm0 vaesenc 176(%rsp), %xmm0, %xmm0 vaesenc 32(%rsp), %xmm0, %xmm0 vaesenclast 272(%rsp), %xmm0, %xmm0 vpxor 112(%rsp), %xmm0, %xmm0 vmovdqa %xmm0, 16(%rsp) vmovdqa %xmm0, 112(%rsp) leaq 112(%rsp), %rsi movq %r14, %rdi movq %rbx, %rdx callq *%r13 testq %r15, %r15 je .LBB1_42 vmovdqa 16(%rsp), %xmm0 vmovdqa %xmm0, 416(%rsp) vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 112(%rsp) leaq 112(%rsp), %rdi leaq 416(%rsp), %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) vmovdqa 112(%rsp), %xmm1 movq %r12, %r8 .LBB1_44: vmovdqa 48(%rsp), %xmm10 vmovdqa 80(%rsp), %xmm11 vmovdqa 64(%rsp), %xmm14 vmovdqa 160(%rsp), %xmm6 vmovdqa 144(%rsp), %xmm7 vmovdqa 96(%rsp), %xmm5 vmovdqa 176(%rsp), %xmm9 vmovdqa 32(%rsp), %xmm8 vpbroadcastq .LCPI1_29(%rip), %xmm13 vmovdqa 128(%rsp), %xmm15 jmp .LBB1_45 .LBB1_32: movq %r12, %r8 vpbroadcastq .LCPI1_29(%rip), %xmm13 vmovdqa 128(%rsp), %xmm15 vmovdqa 48(%rsp), %xmm10 vmovdqa 176(%rsp), %xmm9 vmovdqa 32(%rsp), %xmm8 vmovdqa 64(%rsp), %xmm14 vmovdqa 80(%rsp), %xmm11 vmovdqa 160(%rsp), %xmm6 vmovdqa 144(%rsp), %xmm7 jmp .LBB1_46 .LBB1_42: movq %r12, %r8 vmovdqa 48(%rsp), %xmm10 vmovdqa 80(%rsp), %xmm11 vmovdqa 64(%rsp), %xmm14 vmovdqa 160(%rsp), %xmm6 vmovdqa 144(%rsp), %xmm7 vmovdqa 96(%rsp), %xmm5 vmovdqa 176(%rsp), %xmm9 vmovdqa 32(%rsp), %xmm8 vpbroadcastq .LCPI1_29(%rip), %xmm13 vmovdqa 128(%rsp), %xmm15 vmovdqa 16(%rsp), %xmm1 .LBB1_45: vpshufb .LCPI1_12(%rip), %xmm1, %xmm0 vpxor (%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm15, %xmm1 vpclmulqdq $1, %xmm0, %xmm15, %xmm2 vpclmulqdq $16, %xmm0, %xmm15, %xmm3 vpclmulqdq $17, %xmm0, %xmm15, %xmm0 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $16, %xmm13, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm13, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vmovdqa %xmm0, (%rsp) .LBB1_46: vmovq %r8, %xmm0 vmovq %r15, %xmm1 vpunpcklqdq %xmm0, %xmm1, %xmm0 vpsllq $3, %xmm0, %xmm0 vpxor (%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm15, %xmm1 vpclmulqdq $1, %xmm0, %xmm15, %xmm2 vpclmulqdq $16, %xmm0, %xmm15, %xmm3 vpclmulqdq $17, %xmm0, %xmm15, %xmm0 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm13, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm13, %xmm1, %xmm3 vpxor .LCPI1_25(%rip), %xmm11, %xmm4 vpxor %xmm0, %xmm3, %xmm0 vaesenc %xmm10, %xmm4, %xmm3 vaesenc 304(%rsp), %xmm3, %xmm3 vaesenc %xmm14, %xmm3, %xmm3 vaesenc 256(%rsp), %xmm3, %xmm3 vaesenc 240(%rsp), %xmm3, %xmm3 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm7, %xmm3, %xmm3 vaesenc 224(%rsp), %xmm3, %xmm3 vaesenc 208(%rsp), %xmm3, %xmm3 vaesenc %xmm5, %xmm3, %xmm3 vaesenc 288(%rsp), %xmm3, %xmm3 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm8, %xmm3, %xmm3 vpshufb .LCPI1_26(%rip), %xmm2, %xmm2 vaesenclast 272(%rsp), %xmm3, %xmm3 vpshufb .LCPI1_27(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpshufb .LCPI1_12(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 movq 504(%rsp), %rax vmovdqu %xmm0, (%rax) movl $1, %eax .LBB1_47: addq $432, %rsp .cfi_def_cfa_offset 48 popq %rbx .cfi_def_cfa_offset 40 popq %r12 .cfi_def_cfa_offset 32 popq %r13 .cfi_def_cfa_offset 24 popq %r14 .cfi_def_cfa_offset 16 popq %r15 .cfi_def_cfa_offset 8 retq .Lfunc_end1: .size haberdashery_aes256gcmdndk_haswell_encrypt, .Lfunc_end1-haberdashery_aes256gcmdndk_haswell_encrypt .cfi_endproc .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI2_0: .long 1 .LCPI2_5: .long 0x00000002 .LCPI2_6: .long 0x0c0f0e0d .LCPI2_7: .long 0x00000004 .LCPI2_8: .long 0x00000008 .LCPI2_9: .long 0x00000010 .LCPI2_10: .long 0x00000020 .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_1: .quad 2 .quad 0 .LCPI2_2: .quad 4 .quad 0 .LCPI2_3: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI2_4: .quad 4294967297 .quad 4294967297 .LCPI2_11: .quad 274877907008 .quad 274877907008 .LCPI2_12: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_13: .zero 8 .quad -4467570830351532032 .LCPI2_14: .long 1 .long 0 .long 0 .long 0 .LCPI2_15: .long 3 .long 0 .long 0 .long 0 .LCPI2_16: .long 5 .long 0 .long 0 .long 0 .LCPI2_17: .long 6 .long 0 .long 0 .long 0 .LCPI2_18: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .LCPI2_19: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI2_20: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI2_21: .zero 16 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI2_22: .quad -4467570830351532032 .section .rodata,"a",@progbits .LCPI2_23: .byte 2 .byte 0 .section .text.haberdashery_aes256gcmdndk_haswell_decrypt,"ax",@progbits .globl haberdashery_aes256gcmdndk_haswell_decrypt .p2align 4, 0x90 .type haberdashery_aes256gcmdndk_haswell_decrypt,@function haberdashery_aes256gcmdndk_haswell_decrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $488, %rsp .cfi_def_cfa_offset 544 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 544(%rsp), %r15 xorl %eax, %eax cmpq 576(%rsp), %r15 jne .LBB2_45 movq %r15, %r10 shrq $5, %r10 cmpq $2147483646, %r10 ja .LBB2_45 movabsq $2305843009213693950, %r10 cmpq %r10, %r8 ja .LBB2_45 cmpq $24, %rdx jne .LBB2_45 cmpq $16, 560(%rsp) jne .LBB2_45 vmovsd 4(%rsi), %xmm0 vmovss (%rsi), %xmm1 vshufps $65, %xmm0, %xmm1, %xmm0 vpbroadcastd .LCPI2_0(%rip), %xmm1 vpinsrd $1, 12(%rsi), %xmm1, %xmm1 vpinsrd $2, 16(%rsi), %xmm1, %xmm1 vpinsrd $3, 20(%rsi), %xmm1, %xmm1 vmovaps (%rdi), %xmm2 vxorps %xmm0, %xmm2, %xmm0 vxorps %xmm1, %xmm2, %xmm1 vmovss .LCPI2_5(%rip), %xmm7 vxorps %xmm7, %xmm0, %xmm2 vxorps %xmm7, %xmm1, %xmm3 vmovss .LCPI2_7(%rip), %xmm5 vxorps %xmm5, %xmm0, %xmm4 vxorps %xmm5, %xmm1, %xmm5 vmovaps 16(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 32(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 48(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 64(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 80(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 96(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 112(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 128(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 144(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 160(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 176(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 192(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 208(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 224(%rdi), %xmm6 #APP vaesenclast %xmm6, %xmm0, %xmm0 vaesenclast %xmm6, %xmm1, %xmm1 vaesenclast %xmm6, %xmm2, %xmm2 vaesenclast %xmm6, %xmm3, %xmm3 vaesenclast %xmm6, %xmm4, %xmm4 vaesenclast %xmm6, %xmm5, %xmm5 #NO_APP vpxor %xmm4, %xmm5, %xmm4 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm2, %xmm3, %xmm1 vpxor %xmm0, %xmm1, %xmm13 vpxor %xmm0, %xmm4, %xmm4 vpslldq $4, %xmm13, %xmm0 vpslldq $8, %xmm13, %xmm1 vpxor %xmm1, %xmm0, %xmm1 vpslldq $12, %xmm13, %xmm2 vpbroadcastd .LCPI2_6(%rip), %xmm0 vpshufb %xmm0, %xmm4, %xmm3 vaesenclast .LCPI2_4(%rip), %xmm3, %xmm3 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm1 vpxor %xmm1, %xmm3, %xmm6 vaesenc %xmm4, %xmm13, %xmm1 vpslldq $4, %xmm4, %xmm2 vpslldq $8, %xmm4, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpslldq $12, %xmm4, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpshufd $255, %xmm6, %xmm3 vpxor %xmm11, %xmm11, %xmm11 vaesenclast %xmm11, %xmm3, %xmm3 vmovdqa %xmm4, 208(%rsp) vpxor %xmm4, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm8 vbroadcastss .LCPI2_5(%rip), %xmm3 vbroadcastss .LCPI2_6(%rip), %xmm2 vmovdqa %xmm6, 192(%rsp) #APP vaesenc %xmm6, %xmm1, %xmm1 vpslldq $4, %xmm6, %xmm4 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm6, %xmm4, %xmm4 vpshufb %xmm2, %xmm8, %xmm9 vaesenclast %xmm3, %xmm9, %xmm9 vpxor %xmm4, %xmm9, %xmm9 #NO_APP vmovdqa %xmm8, 176(%rsp) #APP vaesenc %xmm8, %xmm1, %xmm1 vpslldq $4, %xmm8, %xmm3 vpslldq $8, %xmm8, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpslldq $12, %xmm8, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm8, %xmm3 vpshufd $255, %xmm9, %xmm6 vaesenclast %xmm11, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 #NO_APP vbroadcastss .LCPI2_7(%rip), %xmm3 vmovaps %xmm9, 128(%rsp) #APP vaesenc %xmm9, %xmm1, %xmm1 vpslldq $4, %xmm9, %xmm4 vpslldq $8, %xmm9, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm9, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm9, %xmm4 vpshufb %xmm2, %xmm6, %xmm10 vaesenclast %xmm3, %xmm10, %xmm10 vpxor %xmm4, %xmm10, %xmm10 #NO_APP vmovaps %xmm6, 144(%rsp) #APP vaesenc %xmm6, %xmm1, %xmm1 vpslldq $4, %xmm6, %xmm3 vpslldq $8, %xmm6, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpslldq $12, %xmm6, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm6, %xmm3, %xmm3 vpshufd $255, %xmm10, %xmm15 vaesenclast %xmm11, %xmm15, %xmm15 vpxor %xmm3, %xmm15, %xmm15 #NO_APP vbroadcastss .LCPI2_8(%rip), %xmm3 vmovaps %xmm10, 112(%rsp) #APP vaesenc %xmm10, %xmm1, %xmm1 vpslldq $4, %xmm10, %xmm4 vpslldq $8, %xmm10, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm10, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm10, %xmm4 vpshufb %xmm2, %xmm15, %xmm14 vaesenclast %xmm3, %xmm14, %xmm14 vpxor %xmm4, %xmm14, %xmm14 #NO_APP vmovaps %xmm15, 256(%rsp) #APP vaesenc %xmm15, %xmm1, %xmm1 vpslldq $4, %xmm15, %xmm3 vpslldq $8, %xmm15, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpslldq $12, %xmm15, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm15, %xmm3 vpshufd $255, %xmm14, %xmm9 vaesenclast %xmm11, %xmm9, %xmm9 vpxor %xmm3, %xmm9, %xmm9 #NO_APP vbroadcastss .LCPI2_9(%rip), %xmm3 vmovaps %xmm14, 96(%rsp) #APP vaesenc %xmm14, %xmm1, %xmm1 vpslldq $4, %xmm14, %xmm4 vpslldq $8, %xmm14, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm14, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm14, %xmm4 vpshufb %xmm2, %xmm9, %xmm6 vaesenclast %xmm3, %xmm6, %xmm6 vpxor %xmm4, %xmm6, %xmm6 #NO_APP vmovdqa %xmm9, %xmm14 #APP vaesenc %xmm9, %xmm1, %xmm1 vpslldq $4, %xmm9, %xmm3 vpslldq $8, %xmm9, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpslldq $12, %xmm9, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm9, %xmm3 vpshufd $255, %xmm6, %xmm15 vaesenclast %xmm11, %xmm15, %xmm15 vpxor %xmm3, %xmm15, %xmm15 #NO_APP vbroadcastss .LCPI2_10(%rip), %xmm3 vmovaps %xmm6, 160(%rsp) #APP vaesenc %xmm6, %xmm1, %xmm1 vpslldq $4, %xmm6, %xmm4 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm6, %xmm4, %xmm4 vpshufb %xmm2, %xmm15, %xmm8 vaesenclast %xmm3, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 #NO_APP vpslldq $4, %xmm15, %xmm2 vpunpcklqdq %xmm15, %xmm11, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vinsertps $55, %xmm15, %xmm0, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpshufd $255, %xmm8, %xmm3 vaesenclast %xmm11, %xmm3, %xmm3 vpxor %xmm2, %xmm15, %xmm2 vpxor %xmm2, %xmm3, %xmm12 vpslldq $4, %xmm8, %xmm2 vpunpcklqdq %xmm8, %xmm11, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vinsertps $55, %xmm8, %xmm0, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpshufb %xmm0, %xmm12, %xmm0 vaesenclast .LCPI2_11(%rip), %xmm0, %xmm0 vpxor %xmm2, %xmm8, %xmm2 vpxor %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm1, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm12, %xmm0, %xmm0 vaesenclast %xmm3, %xmm0, %xmm0 vpshufb .LCPI2_12(%rip), %xmm0, %xmm0 vpsrlq $63, %xmm0, %xmm1 vpaddq %xmm0, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm2 vpor %xmm2, %xmm0, %xmm0 vpblendd $12, %xmm1, %xmm11, %xmm1 vmovdqa %xmm3, %xmm11 vpsllq $63, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpsllq $62, %xmm1, %xmm2 vpsllq $57, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpxor %xmm1, %xmm0, %xmm6 vpclmulqdq $0, %xmm6, %xmm6, %xmm0 vpbroadcastq .LCPI2_22(%rip), %xmm10 vpclmulqdq $16, %xmm10, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $17, %xmm6, %xmm6, %xmm1 vpshufd $78, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm10, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm5 vpclmulqdq $16, %xmm6, %xmm5, %xmm0 vpclmulqdq $1, %xmm6, %xmm5, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm6, %xmm5, %xmm1 vpslldq $8, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm10, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpclmulqdq $17, %xmm6, %xmm5, %xmm3 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpshufd $78, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm10, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm4 vpclmulqdq $0, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm10, %xmm0, %xmm1 vpclmulqdq $0, %xmm5, %xmm5, %xmm2 vpclmulqdq $16, %xmm10, %xmm2, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpshufd $78, %xmm2, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $17, %xmm5, %xmm5, %xmm2 vpshufd $78, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpclmulqdq $16, %xmm10, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm9 vmovdqa %xmm4, 400(%rsp) vpclmulqdq $17, %xmm4, %xmm4, %xmm1 vpshufd $78, %xmm0, %xmm2 vpclmulqdq $16, %xmm6, %xmm9, %xmm3 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $1, %xmm6, %xmm9, %xmm2 vpxor %xmm3, %xmm2, %xmm2 vpclmulqdq $16, %xmm10, %xmm0, %xmm0 vpclmulqdq $0, %xmm6, %xmm9, %xmm3 vpslldq $8, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm10, %xmm3, %xmm4 vpxor %xmm0, %xmm1, %xmm0 vmovdqa %xmm0, 352(%rsp) vpshufd $78, %xmm3, %xmm0 vmovdqa %xmm9, %xmm3 vpxor %xmm0, %xmm4, %xmm0 vpsrldq $8, %xmm2, %xmm1 vpclmulqdq $17, %xmm6, %xmm9, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm10, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm2 movq 552(%rsp), %r12 testq %r8, %r8 vmovaps %xmm15, 320(%rsp) vmovaps %xmm8, 304(%rsp) vmovdqa %xmm12, 288(%rsp) vmovdqa %xmm11, 272(%rsp) vmovdqa %xmm6, 16(%rsp) vmovdqa %xmm13, 80(%rsp) vmovdqa %xmm14, 48(%rsp) je .LBB2_38 cmpq $96, %r8 jb .LBB2_7 vmovdqu 32(%rcx), %xmm1 vmovdqa %xmm2, %xmm12 vmovdqu 48(%rcx), %xmm2 vmovdqa %xmm3, %xmm15 vmovdqu 64(%rcx), %xmm3 vmovdqu 80(%rcx), %xmm4 vmovdqa .LCPI2_12(%rip), %xmm0 vpshufb %xmm0, %xmm4, %xmm4 vmovdqa %xmm5, %xmm9 vpclmulqdq $0, %xmm4, %xmm6, %xmm5 vmovdqa %xmm6, %xmm8 vpshufb %xmm0, %xmm1, %xmm6 vpclmulqdq $1, %xmm4, %xmm8, %xmm7 vpshufb %xmm0, %xmm2, %xmm1 vpclmulqdq $16, %xmm4, %xmm8, %xmm2 vpshufb %xmm0, %xmm3, %xmm3 vpclmulqdq $17, %xmm4, %xmm8, %xmm4 vpxor %xmm7, %xmm2, %xmm2 vpclmulqdq $0, %xmm3, %xmm9, %xmm7 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $1, %xmm3, %xmm9, %xmm7 vpxor %xmm7, %xmm2, %xmm2 vpclmulqdq $16, %xmm3, %xmm9, %xmm7 vpxor %xmm7, %xmm2, %xmm2 vmovdqa %xmm9, %xmm11 vpclmulqdq $17, %xmm3, %xmm9, %xmm3 vmovdqa 352(%rsp), %xmm8 vpxor %xmm4, %xmm3, %xmm3 vmovdqa 400(%rsp), %xmm14 vpclmulqdq $0, %xmm1, %xmm14, %xmm4 vpclmulqdq $1, %xmm1, %xmm14, %xmm7 vpxor %xmm7, %xmm2, %xmm2 vpclmulqdq $0, %xmm6, %xmm15, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $16, %xmm1, %xmm14, %xmm7 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $1, %xmm6, %xmm15, %xmm5 vpxor %xmm5, %xmm7, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $16, %xmm6, %xmm15, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vmovdqa %xmm15, %xmm10 vpclmulqdq $17, %xmm6, %xmm15, %xmm5 vmovdqu (%rcx), %xmm6 vpxor %xmm5, %xmm3, %xmm3 vmovdqu 16(%rcx), %xmm5 vpshufb %xmm0, %xmm6, %xmm6 vpshufb %xmm0, %xmm5, %xmm5 vpclmulqdq $17, %xmm1, %xmm14, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $0, %xmm5, %xmm12, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $1, %xmm5, %xmm12, %xmm4 vpxor %xmm4, %xmm2, %xmm4 vpclmulqdq $16, %xmm5, %xmm12, %xmm7 vmovdqa %xmm12, %xmm15 vpclmulqdq $17, %xmm5, %xmm12, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm6, %xmm8, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $1, %xmm6, %xmm8, %xmm3 vpxor %xmm3, %xmm7, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm6, %xmm8, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $17, %xmm6, %xmm8, %xmm4 vpxor %xmm4, %xmm1, %xmm1 addq $96, %rcx leaq -96(%r8), %rsi cmpq $96, %rsi jb .LBB2_11 vmovdqa 16(%rsp), %xmm12 vpbroadcastq .LCPI2_22(%rip), %xmm13 .p2align 4, 0x90 .LBB2_22: vmovdqu (%rcx), %xmm5 vmovdqu 32(%rcx), %xmm6 vmovdqu 48(%rcx), %xmm4 vmovdqu 64(%rcx), %xmm7 vmovdqu 80(%rcx), %xmm8 vpslldq $8, %xmm3, %xmm9 vpxor %xmm2, %xmm9, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpclmulqdq $16, %xmm13, %xmm2, %xmm9 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm9, %xmm2 vpclmulqdq $16, %xmm13, %xmm2, %xmm9 vpxor %xmm3, %xmm1, %xmm1 vpshufd $78, %xmm2, %xmm2 vpshufb %xmm0, %xmm5, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpshufb %xmm0, %xmm8, %xmm3 vpclmulqdq $0, %xmm3, %xmm12, %xmm5 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $1, %xmm3, %xmm12, %xmm8 vpxor %xmm1, %xmm9, %xmm1 vpclmulqdq $16, %xmm3, %xmm12, %xmm9 vpshufb %xmm0, %xmm6, %xmm2 vpclmulqdq $17, %xmm3, %xmm12, %xmm3 vpshufb %xmm0, %xmm7, %xmm6 vpclmulqdq $0, %xmm6, %xmm11, %xmm7 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $1, %xmm6, %xmm11, %xmm9 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $16, %xmm6, %xmm11, %xmm7 vpshufb %xmm0, %xmm4, %xmm4 vpclmulqdq $17, %xmm6, %xmm11, %xmm6 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm4, %xmm14, %xmm9 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $1, %xmm4, %xmm14, %xmm8 vpxor %xmm3, %xmm6, %xmm3 vpclmulqdq $16, %xmm4, %xmm14, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm2, %xmm10, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vmovdqa 352(%rsp), %xmm9 vpclmulqdq $17, %xmm4, %xmm14, %xmm4 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $1, %xmm2, %xmm10, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm2, %xmm10, %xmm8 vpxor %xmm6, %xmm7, %xmm6 vpxor %xmm4, %xmm8, %xmm4 vmovdqu 16(%rcx), %xmm7 vpshufb %xmm0, %xmm7, %xmm7 vpclmulqdq $16, %xmm2, %xmm10, %xmm2 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $0, %xmm7, %xmm15, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $1, %xmm7, %xmm15, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $16, %xmm7, %xmm15, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpxor %xmm2, %xmm6, %xmm5 vpclmulqdq $17, %xmm7, %xmm15, %xmm2 vpxor %xmm2, %xmm3, %xmm6 vpclmulqdq $0, %xmm1, %xmm9, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $1, %xmm1, %xmm9, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $16, %xmm1, %xmm9, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $17, %xmm1, %xmm9, %xmm1 vpxor %xmm1, %xmm6, %xmm1 addq $96, %rcx addq $-96, %rsi cmpq $95, %rsi ja .LBB2_22 jmp .LBB2_23 .LBB2_38: vmovdqa %xmm14, %xmm9 vpxor %xmm14, %xmm14, %xmm14 xorl %r8d, %r8d testq %r15, %r15 jne .LBB2_27 jmp .LBB2_39 .LBB2_7: vmovdqa %xmm14, %xmm9 movq %r8, %rsi vpxor %xmm14, %xmm14, %xmm14 cmpq $16, %rsi jae .LBB2_12 .LBB2_9: movq %rsi, %rdx testq %rdx, %rdx jne .LBB2_24 jmp .LBB2_19 .LBB2_11: vmovdqa 16(%rsp), %xmm12 .LBB2_23: vpslldq $8, %xmm3, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI2_22(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm4, %xmm0, %xmm3 vpxor %xmm2, %xmm1, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm3, %xmm0, %xmm14 vmovss .LCPI2_5(%rip), %xmm7 vmovdqa %xmm12, %xmm6 vmovdqa %xmm11, %xmm5 vmovdqa 48(%rsp), %xmm9 vmovdqa %xmm15, %xmm2 vmovdqa %xmm10, %xmm3 vmovdqa 80(%rsp), %xmm13 cmpq $16, %rsi jb .LBB2_9 .LBB2_12: leaq -16(%rsi), %rdx testb $16, %dl je .LBB2_13 cmpq $16, %rdx jae .LBB2_15 .LBB2_18: testq %rdx, %rdx je .LBB2_19 .LBB2_24: vmovdqa %xmm14, 32(%rsp) vmovdqa %xmm2, 224(%rsp) vmovdqa %xmm3, 240(%rsp) vmovdqa %xmm5, 336(%rsp) movq %r9, %rbx vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rdi movq %rcx, %rsi movq %r8, %r14 callq *memcpy@GOTPCREL(%rip) movq %r14, %r8 vmovdqa (%rsp), %xmm0 shlq $3, %r8 testq %r15, %r15 je .LBB2_46 movabsq $-68719476704, %rax leaq (%r15,%rax), %rcx incq %rax cmpq %rax, %rcx movl $0, %eax vmovdqa 80(%rsp), %xmm13 vmovss .LCPI2_5(%rip), %xmm7 vmovdqa 16(%rsp), %xmm6 vmovdqa 336(%rsp), %xmm5 vmovdqa 240(%rsp), %xmm10 vmovdqa 224(%rsp), %xmm12 vmovdqa 32(%rsp), %xmm1 jb .LBB2_45 movq %rbx, %r9 vpshufb .LCPI2_12(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm0, %xmm6, %xmm1 vpclmulqdq $1, %xmm0, %xmm6, %xmm2 vpclmulqdq $16, %xmm0, %xmm6, %xmm3 vpclmulqdq $17, %xmm0, %xmm6, %xmm0 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpbroadcastq .LCPI2_22(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm4, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vmovdqa %xmm12, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm14 vmovdqa %xmm10, %xmm3 jmp .LBB2_27 .LBB2_13: vmovdqu (%rcx), %xmm0 vpshufb .LCPI2_12(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm0 vpclmulqdq $0, %xmm0, %xmm6, %xmm1 vmovdqa %xmm2, %xmm14 vpclmulqdq $1, %xmm0, %xmm6, %xmm2 vmovdqa %xmm3, %xmm10 vpclmulqdq $16, %xmm0, %xmm6, %xmm3 addq $16, %rcx vpclmulqdq $17, %xmm0, %xmm6, %xmm0 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpbroadcastq .LCPI2_22(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm4, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vmovdqa %xmm14, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm14 vmovdqa %xmm10, %xmm3 movq %rdx, %rsi cmpq $16, %rdx jb .LBB2_18 .LBB2_15: vmovdqa %xmm2, 224(%rsp) vmovdqa %xmm3, 240(%rsp) vmovdqa %xmm5, %xmm11 vmovdqa .LCPI2_12(%rip), %xmm0 vpbroadcastq .LCPI2_22(%rip), %xmm10 .p2align 4, 0x90 .LBB2_16: vmovdqu (%rcx), %xmm1 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm1, %xmm14, %xmm1 vpclmulqdq $0, %xmm1, %xmm6, %xmm2 vpclmulqdq $1, %xmm1, %xmm6, %xmm3 vmovdqu 16(%rcx), %xmm4 vpclmulqdq $16, %xmm1, %xmm6, %xmm5 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $17, %xmm1, %xmm6, %xmm1 vpslldq $8, %xmm3, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm10, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm10, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufb %xmm0, %xmm4, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $0, %xmm1, %xmm6, %xmm2 addq $32, %rcx vpclmulqdq $1, %xmm1, %xmm6, %xmm3 addq $-32, %rsi vpclmulqdq $16, %xmm1, %xmm6, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm6, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm10, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm10, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm14 cmpq $15, %rsi ja .LBB2_16 movq %rsi, %rdx vmovdqa %xmm11, %xmm5 vmovdqa 240(%rsp), %xmm3 vmovdqa 224(%rsp), %xmm2 testq %rdx, %rdx jne .LBB2_24 .LBB2_19: shlq $3, %r8 testq %r15, %r15 je .LBB2_39 movabsq $-68719476704, %rcx leaq (%r15,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB2_45 .LBB2_27: movq 568(%rsp), %rax cmpq $96, %r15 jb .LBB2_28 vpmovsxbq .LCPI2_23(%rip), %xmm7 movq %r15, %rbx vmovdqa %xmm5, 336(%rsp) vmovdqa %xmm3, 240(%rsp) vmovdqa %xmm2, 224(%rsp) .p2align 4, 0x90 .LBB2_32: vmovdqa %xmm7, 64(%rsp) vmovdqu (%r9), %xmm9 vmovdqa %xmm9, 368(%rsp) vmovups 32(%r9), %xmm0 vmovaps %xmm0, 32(%rsp) vmovdqu 48(%r9), %xmm11 vmovdqa %xmm11, 416(%rsp) vmovdqu 64(%r9), %xmm4 vmovdqa %xmm4, 448(%rsp) vmovdqu 80(%r9), %xmm8 vmovdqa %xmm8, 384(%rsp) vmovdqa .LCPI2_12(%rip), %xmm12 vpshufb %xmm12, %xmm7, %xmm0 vpaddd .LCPI2_14(%rip), %xmm7, %xmm1 vpshufb %xmm12, %xmm1, %xmm1 vpaddd .LCPI2_1(%rip), %xmm7, %xmm2 vpshufb %xmm12, %xmm2, %xmm2 vpaddd .LCPI2_15(%rip), %xmm7, %xmm3 vpshufb %xmm12, %xmm3, %xmm3 vpaddd .LCPI2_2(%rip), %xmm7, %xmm5 vpshufb %xmm12, %xmm5, %xmm5 vpaddd .LCPI2_16(%rip), %xmm7, %xmm6 vpshufb %xmm12, %xmm6, %xmm6 vpshufb %xmm12, %xmm9, %xmm7 vpxor %xmm7, %xmm14, %xmm7 vmovdqa %xmm7, 432(%rsp) vpshufb %xmm12, %xmm8, %xmm8 vpxor %xmm0, %xmm13, %xmm14 vpxor %xmm1, %xmm13, %xmm15 vpxor %xmm2, %xmm13, %xmm1 vpxor %xmm3, %xmm13, %xmm2 vpxor %xmm5, %xmm13, %xmm3 vpxor 80(%rsp), %xmm6, %xmm13 vmovaps 208(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm13, %xmm13 #NO_APP vpxor %xmm5, %xmm5, %xmm5 vpxor %xmm6, %xmm6, %xmm6 vpxor %xmm7, %xmm7, %xmm7 vmovaps 16(%rsp), %xmm9 vmovaps 192(%rsp), %xmm10 #APP vaesenc %xmm10, %xmm14, %xmm14 vaesenc %xmm10, %xmm15, %xmm15 vaesenc %xmm10, %xmm1, %xmm1 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm10, %xmm13, %xmm13 vpclmulqdq $16, %xmm9, %xmm8, %xmm0 vpxor %xmm0, %xmm7, %xmm7 vpclmulqdq $0, %xmm9, %xmm8, %xmm0 vpxor %xmm0, %xmm5, %xmm5 vpclmulqdq $17, %xmm9, %xmm8, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpclmulqdq $1, %xmm9, %xmm8, %xmm0 vpxor %xmm0, %xmm7, %xmm7 #NO_APP vpshufb %xmm12, %xmm4, %xmm0 vmovaps 176(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vmovaps 128(%rsp), %xmm9 vmovaps 336(%rsp), %xmm10 #APP vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm13, %xmm13 vpclmulqdq $16, %xmm10, %xmm0, %xmm4 vpxor %xmm4, %xmm7, %xmm7 vpclmulqdq $0, %xmm10, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 vpclmulqdq $17, %xmm10, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm6 vpclmulqdq $1, %xmm10, %xmm0, %xmm4 vpxor %xmm4, %xmm7, %xmm7 #NO_APP vpshufb %xmm12, %xmm11, %xmm0 vmovaps 144(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vmovaps 400(%rsp), %xmm9 vmovdqa 112(%rsp), %xmm8 #APP vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm13, %xmm13 vpclmulqdq $16, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm7, %xmm7 vpclmulqdq $0, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 vpclmulqdq $17, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm6 vpclmulqdq $1, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm7, %xmm7 #NO_APP vmovdqa 32(%rsp), %xmm0 vpshufb %xmm12, %xmm0, %xmm0 vmovaps 256(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vmovaps 240(%rsp), %xmm9 vmovdqa 96(%rsp), %xmm11 #APP vaesenc %xmm11, %xmm14, %xmm14 vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm13, %xmm13 vpclmulqdq $16, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm7, %xmm7 vpclmulqdq $0, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 vpclmulqdq $17, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm6 vpclmulqdq $1, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm7, %xmm7 #NO_APP vmovdqu 16(%r9), %xmm0 vmovaps 48(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vpshufb %xmm12, %xmm0, %xmm4 vmovaps 160(%rsp), %xmm10 vmovaps 224(%rsp), %xmm12 #APP vaesenc %xmm10, %xmm14, %xmm14 vaesenc %xmm10, %xmm15, %xmm15 vaesenc %xmm10, %xmm1, %xmm1 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm10, %xmm13, %xmm13 vpclmulqdq $16, %xmm12, %xmm4, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm12, %xmm4, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $17, %xmm12, %xmm4, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $1, %xmm12, %xmm4, %xmm9 vpxor %xmm7, %xmm9, %xmm7 #NO_APP vmovaps 320(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vmovdqa 352(%rsp), %xmm9 vmovdqa 304(%rsp), %xmm10 vmovdqa 432(%rsp), %xmm12 #APP vaesenc %xmm10, %xmm14, %xmm14 vaesenc %xmm10, %xmm15, %xmm15 vaesenc %xmm10, %xmm1, %xmm1 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm10, %xmm13, %xmm13 vpclmulqdq $16, %xmm9, %xmm12, %xmm4 vpxor %xmm4, %xmm7, %xmm7 vpclmulqdq $0, %xmm9, %xmm12, %xmm4 vpxor %xmm4, %xmm5, %xmm5 vpclmulqdq $17, %xmm9, %xmm12, %xmm4 vpxor %xmm4, %xmm6, %xmm6 vpclmulqdq $1, %xmm9, %xmm12, %xmm4 vpxor %xmm4, %xmm7, %xmm7 #NO_APP vpxor %xmm9, %xmm9, %xmm9 vpunpcklqdq %xmm7, %xmm9, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpunpckhqdq %xmm9, %xmm7, %xmm5 vmovdqa 64(%rsp), %xmm7 vpxor %xmm5, %xmm6, %xmm5 vpbroadcastq .LCPI2_22(%rip), %xmm9 vpclmulqdq $16, %xmm9, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm9, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpxor %xmm6, %xmm4, %xmm5 vmovaps 288(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vmovaps 272(%rsp), %xmm4 #APP vaesenclast %xmm4, %xmm14, %xmm14 vaesenclast %xmm4, %xmm15, %xmm15 vaesenclast %xmm4, %xmm1, %xmm1 vaesenclast %xmm4, %xmm2, %xmm2 vaesenclast %xmm4, %xmm3, %xmm3 vaesenclast %xmm4, %xmm13, %xmm13 #NO_APP vpxor 368(%rsp), %xmm14, %xmm4 vpxor %xmm0, %xmm15, %xmm0 vpxor 32(%rsp), %xmm1, %xmm1 vpxor 416(%rsp), %xmm2, %xmm2 vpxor 448(%rsp), %xmm3, %xmm3 vmovdqu %xmm4, (%rax) vmovdqa %xmm5, %xmm14 vmovdqu %xmm0, 16(%rax) vmovdqu %xmm1, 32(%rax) vmovdqu %xmm2, 48(%rax) vmovdqu %xmm3, 64(%rax) vpxor 384(%rsp), %xmm13, %xmm0 vmovdqa 80(%rsp), %xmm13 vmovdqu %xmm0, 80(%rax) addq $96, %r9 addq $96, %rax addq $-96, %rbx vpaddd .LCPI2_17(%rip), %xmm7, %xmm7 cmpq $95, %rbx ja .LBB2_32 vpbroadcastq .LCPI2_22(%rip), %xmm1 vmovdqa 144(%rsp), %xmm5 vmovdqa 256(%rsp), %xmm11 vmovdqa 16(%rsp), %xmm6 cmpq $16, %rbx jae .LBB2_34 .LBB2_30: movq %rax, %r14 jmp .LBB2_36 .LBB2_28: vpbroadcastq .LCPI2_22(%rip), %xmm1 movq %r15, %rbx vmovdqa 144(%rsp), %xmm5 vmovdqa 256(%rsp), %xmm11 cmpq $16, %rbx jb .LBB2_30 .LBB2_34: vmovdqa 128(%rsp), %xmm0 vmovdqa 112(%rsp), %xmm9 vmovdqa 96(%rsp), %xmm10 vmovdqa 48(%rsp), %xmm12 vmovdqa .LCPI2_12(%rip), %xmm8 .p2align 4, 0x90 .LBB2_35: vmovdqu (%r9), %xmm2 vpshufb %xmm8, %xmm2, %xmm3 vpxor %xmm3, %xmm14, %xmm3 vpclmulqdq $0, %xmm3, %xmm6, %xmm4 vmovdqa %xmm5, %xmm15 vpclmulqdq $1, %xmm3, %xmm6, %xmm5 vpclmulqdq $1, 16(%rsp), %xmm3, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vmovdqa 16(%rsp), %xmm6 vpclmulqdq $17, %xmm3, %xmm6, %xmm3 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm1, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpshufd $78, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vmovdqa %xmm15, %xmm5 vpclmulqdq $16, %xmm1, %xmm4, %xmm4 vpxor %xmm3, %xmm4, %xmm14 vpshufb %xmm8, %xmm7, %xmm3 vpxor %xmm3, %xmm13, %xmm3 vaesenc 208(%rsp), %xmm3, %xmm3 vaesenc 192(%rsp), %xmm3, %xmm3 vaesenc 176(%rsp), %xmm3, %xmm3 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm15, %xmm3, %xmm3 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm12, %xmm3, %xmm3 vaesenc 160(%rsp), %xmm3, %xmm3 vaesenc 320(%rsp), %xmm3, %xmm3 vaesenc 304(%rsp), %xmm3, %xmm3 vaesenc 288(%rsp), %xmm3, %xmm3 vaesenclast 272(%rsp), %xmm3, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vmovdqu %xmm2, (%rax) leaq 16(%rax), %r14 addq $-16, %rbx addq $16, %r9 vpaddd .LCPI2_14(%rip), %xmm7, %xmm7 movq %r14, %rax cmpq $15, %rbx ja .LBB2_35 .LBB2_36: vmovdqa %xmm14, 32(%rsp) testq %rbx, %rbx je .LBB2_37 movq %r8, %r13 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rdi movq memcpy@GOTPCREL(%rip), %rbp movq %r9, %rsi movq %rbx, %rdx vmovdqa %xmm7, 64(%rsp) callq *%rbp vmovdqa (%rsp), %xmm1 vmovdqa 64(%rsp), %xmm0 vpshufb .LCPI2_12(%rip), %xmm0, %xmm0 vpxor 80(%rsp), %xmm0, %xmm0 vaesenc 208(%rsp), %xmm0, %xmm0 vaesenc 192(%rsp), %xmm0, %xmm0 vaesenc 176(%rsp), %xmm0, %xmm0 vaesenc 128(%rsp), %xmm0, %xmm0 vaesenc 144(%rsp), %xmm0, %xmm0 vaesenc 112(%rsp), %xmm0, %xmm0 vaesenc 256(%rsp), %xmm0, %xmm0 vaesenc 96(%rsp), %xmm0, %xmm0 vaesenc 48(%rsp), %xmm0, %xmm0 vaesenc 160(%rsp), %xmm0, %xmm0 vaesenc 320(%rsp), %xmm0, %xmm0 vaesenc 304(%rsp), %xmm0, %xmm0 vaesenc 288(%rsp), %xmm0, %xmm0 vaesenclast 272(%rsp), %xmm0, %xmm0 vmovdqa %xmm1, 384(%rsp) vpxor %xmm1, %xmm0, %xmm0 vmovdqa %xmm0, 368(%rsp) vmovdqa %xmm0, (%rsp) movq %rsp, %rsi movq %r14, %rdi movq %rbx, %rdx callq *%rbp vmovups (%r12), %xmm0 vmovaps %xmm0, 64(%rsp) testq %r15, %r15 je .LBB2_41 vmovaps 384(%rsp), %xmm0 vmovaps %xmm0, 464(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) movq %rsp, %rdi leaq 464(%rsp), %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) vmovdqa (%rsp), %xmm0 movq %r13, %r8 jmp .LBB2_43 .LBB2_37: vmovdqu (%r12), %xmm0 vmovdqa %xmm0, 64(%rsp) vmovdqa 160(%rsp), %xmm4 vpbroadcastq .LCPI2_22(%rip), %xmm10 vmovdqa 208(%rsp), %xmm12 vmovdqa 192(%rsp), %xmm11 vmovdqa 176(%rsp), %xmm8 vmovdqa 128(%rsp), %xmm15 vmovdqa 112(%rsp), %xmm7 vmovdqa 96(%rsp), %xmm14 vmovdqa 48(%rsp), %xmm9 vmovdqa 32(%rsp), %xmm2 jmp .LBB2_44 .LBB2_46: vpshufb .LCPI2_12(%rip), %xmm0, %xmm0 vpxor 32(%rsp), %xmm0, %xmm0 vmovdqa 16(%rsp), %xmm6 vpclmulqdq $0, %xmm0, %xmm6, %xmm1 vpclmulqdq $1, %xmm0, %xmm6, %xmm2 vpclmulqdq $16, %xmm0, %xmm6, %xmm3 vpclmulqdq $17, %xmm0, %xmm6, %xmm0 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpbroadcastq .LCPI2_22(%rip), %xmm10 vpclmulqdq $16, %xmm10, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm10, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm14 vmovdqa 80(%rsp), %xmm13 vmovdqa 48(%rsp), %xmm9 .LBB2_39: vmovdqu (%r12), %xmm0 vmovdqa %xmm0, 64(%rsp) vmovdqa %xmm14, %xmm2 vmovdqa 160(%rsp), %xmm4 vmovdqa 144(%rsp), %xmm5 vmovdqa 112(%rsp), %xmm7 vmovdqa 96(%rsp), %xmm14 vpbroadcastq .LCPI2_22(%rip), %xmm10 vmovdqa 208(%rsp), %xmm12 vmovdqa 192(%rsp), %xmm11 vmovdqa 176(%rsp), %xmm8 vmovdqa 128(%rsp), %xmm15 jmp .LBB2_44 .LBB2_41: movq %r13, %r8 vmovdqa 368(%rsp), %xmm0 .LBB2_43: vpshufb .LCPI2_12(%rip), %xmm0, %xmm0 vpxor 32(%rsp), %xmm0, %xmm0 vmovdqa 16(%rsp), %xmm6 vpclmulqdq $0, %xmm0, %xmm6, %xmm1 vpclmulqdq $1, %xmm0, %xmm6, %xmm2 vpclmulqdq $16, %xmm0, %xmm6, %xmm3 vpclmulqdq $17, %xmm0, %xmm6, %xmm0 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpbroadcastq .LCPI2_22(%rip), %xmm10 vpclmulqdq $16, %xmm10, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm10, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm2 vmovdqa 80(%rsp), %xmm13 vmovdqa 208(%rsp), %xmm12 vmovdqa 192(%rsp), %xmm11 vmovdqa 176(%rsp), %xmm8 vmovdqa 128(%rsp), %xmm15 vmovdqa 144(%rsp), %xmm5 vmovdqa 112(%rsp), %xmm7 vmovdqa 96(%rsp), %xmm14 vmovdqa 48(%rsp), %xmm9 vmovdqa 160(%rsp), %xmm4 .LBB2_44: shlq $3, %r15 vmovq %r8, %xmm0 vmovq %r15, %xmm1 vpunpcklqdq %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm6, %xmm1 vpclmulqdq $1, %xmm0, %xmm6, %xmm2 vpclmulqdq $16, %xmm0, %xmm6, %xmm3 vpclmulqdq $17, %xmm0, %xmm6, %xmm0 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm10, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm10, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpxor .LCPI2_18(%rip), %xmm13, %xmm3 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm15, %xmm3, %xmm3 vaesenc %xmm5, %xmm3, %xmm3 vaesenc %xmm7, %xmm3, %xmm3 vaesenc 256(%rsp), %xmm3, %xmm3 vaesenc %xmm14, %xmm3, %xmm3 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm4, %xmm3, %xmm3 vaesenc 320(%rsp), %xmm3, %xmm3 vaesenc 304(%rsp), %xmm3, %xmm3 vaesenc 288(%rsp), %xmm3, %xmm3 vaesenclast 272(%rsp), %xmm3, %xmm3 vpshufb .LCPI2_19(%rip), %xmm2, %xmm2 vpshufb .LCPI2_20(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpxor 64(%rsp), %xmm1, %xmm1 vpshufb .LCPI2_12(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm3, %xmm0, %xmm0 xorl %eax, %eax vptest %xmm0, %xmm0 sete %al .LBB2_45: addq $488, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end2: .size haberdashery_aes256gcmdndk_haswell_decrypt, .Lfunc_end2-haberdashery_aes256gcmdndk_haswell_decrypt .cfi_endproc .section .text.haberdashery_aes256gcmdndk_haswell_is_supported,"ax",@progbits .globl haberdashery_aes256gcmdndk_haswell_is_supported .p2align 4, 0x90 .type haberdashery_aes256gcmdndk_haswell_is_supported,@function haberdashery_aes256gcmdndk_haswell_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $297, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end3: .size haberdashery_aes256gcmdndk_haswell_is_supported, .Lfunc_end3-haberdashery_aes256gcmdndk_haswell_is_supported .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
63,656
asm/aes256gcm_streaming_tigerlake.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI0_9: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_1: .quad 4294967297 .LCPI0_8: .quad 274877907008 .LCPI0_10: .quad -4467570830351532032 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI0_2: .long 0x00000002 .LCPI0_3: .long 0x0c0f0e0d .LCPI0_4: .long 0x00000004 .LCPI0_5: .long 0x00000008 .LCPI0_6: .long 0x00000010 .LCPI0_7: .long 0x00000020 .section .text.haberdashery_aes256gcm_streaming_tigerlake_init_key,"ax",@progbits .globl haberdashery_aes256gcm_streaming_tigerlake_init_key .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_tigerlake_init_key,@function haberdashery_aes256gcm_streaming_tigerlake_init_key: .cfi_startproc cmpq $32, %rdx jne .LBB0_2 vmovupd (%rsi), %xmm16 vmovdqu 16(%rsi), %xmm1 vpslldq $4, %xmm16, %xmm0 vpslldq $8, %xmm16, %xmm2 vpslldq $12, %xmm16, %xmm3 vpternlogq $150, %xmm2, %xmm0, %xmm3 vpbroadcastd .LCPI0_3(%rip), %xmm17 vpshufb %xmm17, %xmm1, %xmm0 vpbroadcastq .LCPI0_1(%rip), %xmm2 vaesenclast %xmm2, %xmm0, %xmm2 vpternlogq $150, %xmm3, %xmm16, %xmm2 vaesenc %xmm1, %xmm16, %xmm0 vpslldq $4, %xmm1, %xmm3 vpslldq $8, %xmm1, %xmm4 vpslldq $12, %xmm1, %xmm5 vpternlogq $150, %xmm4, %xmm3, %xmm5 vpshufd $255, %xmm2, %xmm3 vpxor %xmm15, %xmm15, %xmm15 vaesenclast %xmm15, %xmm3, %xmm3 vbroadcastss .LCPI0_2(%rip), %xmm6 vpternlogq $150, %xmm5, %xmm1, %xmm3 vbroadcastss .LCPI0_3(%rip), %xmm13 #APP vaesenc %xmm2, %xmm0, %xmm0 vpslldq $4, %xmm2, %xmm5 vpslldq $8, %xmm2, %xmm7 vpslldq $12, %xmm2, %xmm8 vpternlogq $150, %xmm5, %xmm7, %xmm8 vpshufb %xmm13, %xmm3, %xmm4 vaesenclast %xmm6, %xmm4, %xmm4 vpternlogq $150, %xmm2, %xmm8, %xmm4 #NO_APP vbroadcastss .LCPI0_4(%rip), %xmm7 #APP vaesenc %xmm3, %xmm0, %xmm0 vpslldq $4, %xmm3, %xmm6 vpslldq $8, %xmm3, %xmm8 vpslldq $12, %xmm3, %xmm9 vpternlogq $150, %xmm6, %xmm8, %xmm9 vpshufd $255, %xmm4, %xmm5 vaesenclast %xmm15, %xmm5, %xmm5 vpternlogq $150, %xmm3, %xmm9, %xmm5 #NO_APP #APP vaesenc %xmm4, %xmm0, %xmm0 vpslldq $4, %xmm4, %xmm8 vpslldq $8, %xmm4, %xmm9 vpslldq $12, %xmm4, %xmm10 vpternlogq $150, %xmm8, %xmm9, %xmm10 vpshufb %xmm13, %xmm5, %xmm6 vaesenclast %xmm7, %xmm6, %xmm6 vpternlogq $150, %xmm4, %xmm10, %xmm6 #NO_APP vmovaps %xmm4, %xmm21 #APP vaesenc %xmm5, %xmm0, %xmm0 vpslldq $4, %xmm5, %xmm8 vpslldq $8, %xmm5, %xmm9 vpslldq $12, %xmm5, %xmm10 vpternlogq $150, %xmm8, %xmm9, %xmm10 vpshufd $255, %xmm6, %xmm7 vaesenclast %xmm15, %xmm7, %xmm7 vpternlogq $150, %xmm5, %xmm10, %xmm7 #NO_APP vmovaps %xmm5, %xmm22 vbroadcastss .LCPI0_5(%rip), %xmm9 #APP vaesenc %xmm6, %xmm0, %xmm0 vpslldq $4, %xmm6, %xmm10 vpslldq $8, %xmm6, %xmm11 vpslldq $12, %xmm6, %xmm12 vpternlogq $150, %xmm10, %xmm11, %xmm12 vpshufb %xmm13, %xmm7, %xmm8 vaesenclast %xmm9, %xmm8, %xmm8 vpternlogq $150, %xmm6, %xmm12, %xmm8 #NO_APP vmovaps %xmm6, %xmm23 #APP vaesenc %xmm7, %xmm0, %xmm0 vpslldq $4, %xmm7, %xmm10 vpslldq $8, %xmm7, %xmm11 vpslldq $12, %xmm7, %xmm12 vpternlogq $150, %xmm10, %xmm11, %xmm12 vpshufd $255, %xmm8, %xmm9 vaesenclast %xmm15, %xmm9, %xmm9 vpternlogq $150, %xmm7, %xmm12, %xmm9 #NO_APP vbroadcastss .LCPI0_6(%rip), %xmm11 #APP vaesenc %xmm8, %xmm0, %xmm0 vpslldq $4, %xmm8, %xmm12 vpslldq $8, %xmm8, %xmm14 vpslldq $12, %xmm8, %xmm4 vpternlogq $150, %xmm12, %xmm14, %xmm4 vpshufb %xmm13, %xmm9, %xmm10 vaesenclast %xmm11, %xmm10, %xmm10 vpternlogq $150, %xmm8, %xmm4, %xmm10 #NO_APP vbroadcastss .LCPI0_7(%rip), %xmm4 #APP vaesenc %xmm9, %xmm0, %xmm0 vpslldq $4, %xmm9, %xmm12 vpslldq $8, %xmm9, %xmm14 vpslldq $12, %xmm9, %xmm5 vpternlogq $150, %xmm12, %xmm14, %xmm5 vpshufd $255, %xmm10, %xmm11 vaesenclast %xmm15, %xmm11, %xmm11 vpternlogq $150, %xmm9, %xmm5, %xmm11 #NO_APP #APP vaesenc %xmm10, %xmm0, %xmm0 vpslldq $4, %xmm10, %xmm5 vpslldq $8, %xmm10, %xmm14 vpslldq $12, %xmm10, %xmm6 vpternlogq $150, %xmm5, %xmm14, %xmm6 vpshufb %xmm13, %xmm11, %xmm12 vaesenclast %xmm4, %xmm12, %xmm12 vpternlogq $150, %xmm10, %xmm6, %xmm12 #NO_APP vpslldq $4, %xmm11, %xmm4 vpunpcklqdq %xmm11, %xmm15, %xmm5 vinsertps $55, %xmm11, %xmm0, %xmm6 vpternlogq $150, %xmm5, %xmm4, %xmm6 vpshufd $255, %xmm12, %xmm4 vaesenclast %xmm15, %xmm4, %xmm13 vpternlogq $150, %xmm6, %xmm11, %xmm13 vpslldq $4, %xmm12, %xmm4 vpunpcklqdq %xmm12, %xmm15, %xmm5 vinsertps $55, %xmm12, %xmm0, %xmm6 vpternlogq $150, %xmm5, %xmm4, %xmm6 vpshufb %xmm17, %xmm13, %xmm4 vpbroadcastq .LCPI0_8(%rip), %xmm5 vaesenclast %xmm5, %xmm4, %xmm14 vpternlogq $150, %xmm6, %xmm12, %xmm14 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm13, %xmm0, %xmm0 vaesenclast %xmm14, %xmm0, %xmm0 vpshufb .LCPI0_9(%rip), %xmm0, %xmm0 vpsrlq $63, %xmm0, %xmm4 vpaddq %xmm0, %xmm0, %xmm0 vpshufd $78, %xmm4, %xmm5 vpblendd $12, %xmm4, %xmm15, %xmm4 vpsllq $63, %xmm4, %xmm6 vpternlogq $30, %xmm5, %xmm0, %xmm6 vpsllq $62, %xmm4, %xmm5 vpsllq $57, %xmm4, %xmm0 vpternlogq $150, %xmm5, %xmm6, %xmm0 vpbroadcastq .LCPI0_10(%rip), %xmm4 vpclmulqdq $0, %xmm0, %xmm0, %xmm5 vpclmulqdq $16, %xmm4, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $16, %xmm4, %xmm5, %xmm6 vpclmulqdq $17, %xmm0, %xmm0, %xmm17 vpshufd $78, %xmm5, %xmm15 vpternlogq $150, %xmm6, %xmm17, %xmm15 vpclmulqdq $0, %xmm0, %xmm15, %xmm5 vpclmulqdq $16, %xmm0, %xmm15, %xmm6 vpclmulqdq $1, %xmm0, %xmm15, %xmm17 vpxorq %xmm6, %xmm17, %xmm6 vpslldq $8, %xmm6, %xmm17 vpxorq %xmm17, %xmm5, %xmm5 vpclmulqdq $16, %xmm4, %xmm5, %xmm17 vpshufd $78, %xmm5, %xmm5 vpxorq %xmm5, %xmm17, %xmm5 vpclmulqdq $16, %xmm4, %xmm5, %xmm17 vpclmulqdq $17, %xmm0, %xmm15, %xmm18 vpxorq %xmm17, %xmm18, %xmm17 vpsrldq $8, %xmm6, %xmm6 vpshufd $78, %xmm5, %xmm5 vpternlogq $150, %xmm6, %xmm17, %xmm5 vpclmulqdq $0, %xmm5, %xmm5, %xmm6 vpclmulqdq $16, %xmm4, %xmm6, %xmm17 vpshufd $78, %xmm6, %xmm6 vpxorq %xmm6, %xmm17, %xmm6 vpclmulqdq $16, %xmm4, %xmm6, %xmm17 vpclmulqdq $17, %xmm5, %xmm5, %xmm18 vpshufd $78, %xmm6, %xmm6 vpternlogq $150, %xmm17, %xmm18, %xmm6 vpclmulqdq $0, %xmm15, %xmm15, %xmm17 vpclmulqdq $16, %xmm4, %xmm17, %xmm18 vpshufd $78, %xmm17, %xmm17 vpxorq %xmm17, %xmm18, %xmm17 vpclmulqdq $16, %xmm4, %xmm17, %xmm18 vpclmulqdq $17, %xmm15, %xmm15, %xmm19 vpshufd $78, %xmm17, %xmm17 vpternlogq $150, %xmm18, %xmm19, %xmm17 vpclmulqdq $0, %xmm0, %xmm17, %xmm18 vpclmulqdq $16, %xmm0, %xmm17, %xmm19 vpclmulqdq $1, %xmm0, %xmm17, %xmm20 vpxorq %xmm19, %xmm20, %xmm19 vpslldq $8, %xmm19, %xmm20 vpxorq %xmm20, %xmm18, %xmm18 vpclmulqdq $16, %xmm4, %xmm18, %xmm20 vpshufd $78, %xmm18, %xmm18 vpxorq %xmm18, %xmm20, %xmm18 vpclmulqdq $16, %xmm4, %xmm18, %xmm4 vpclmulqdq $17, %xmm0, %xmm17, %xmm20 vpxorq %xmm4, %xmm20, %xmm4 vpsrldq $8, %xmm19, %xmm19 vpshufd $78, %xmm18, %xmm18 vpternlogq $150, %xmm19, %xmm4, %xmm18 vmovdqa64 %xmm16, (%rdi) vmovdqa %xmm1, 16(%rdi) vmovdqa %xmm2, 32(%rdi) vmovdqa %xmm3, 48(%rdi) vmovaps %xmm21, 64(%rdi) vmovaps %xmm22, 80(%rdi) vmovaps %xmm23, 96(%rdi) vmovaps %xmm7, 112(%rdi) vmovaps %xmm8, 128(%rdi) vmovaps %xmm9, 144(%rdi) vmovaps %xmm10, 160(%rdi) vmovaps %xmm11, 176(%rdi) vmovaps %xmm12, 192(%rdi) vmovdqa %xmm13, 208(%rdi) vmovdqa %xmm14, 224(%rdi) vmovdqa %xmm0, 240(%rdi) vmovdqa %xmm15, 256(%rdi) vmovdqa %xmm5, 272(%rdi) vmovdqa64 %xmm17, 288(%rdi) vmovdqa64 %xmm18, 304(%rdi) vmovdqa %xmm6, 320(%rdi) .LBB0_2: xorl %eax, %eax cmpq $32, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes256gcm_streaming_tigerlake_init_key, .Lfunc_end0-haberdashery_aes256gcm_streaming_tigerlake_init_key .cfi_endproc .section .text.haberdashery_aes256gcm_streaming_tigerlake_is_supported,"ax",@progbits .globl haberdashery_aes256gcm_streaming_tigerlake_is_supported .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_tigerlake_is_supported,@function haberdashery_aes256gcm_streaming_tigerlake_is_supported: .cfi_startproc xorl %esi, %esi movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rdi cpuid xchgq %rbx, %rdi #NO_APP movl %ecx, %edi movl %edx, %r8d notl %r8d notl %edi xorl %ecx, %ecx movl $7, %eax #APP movq %rbx, %r9 cpuid xchgq %rbx, %r9 #NO_APP andl $1993871875, %edi andl $125829120, %r8d orl %edi, %r8d jne .LBB1_3 notl %r9d andl $-240189143, %r9d notl %ecx andl $415260490, %ecx orl %r9d, %ecx jne .LBB1_3 shrl $8, %edx andl $1, %edx movl %edx, %esi .LBB1_3: movl %esi, %eax retq .Lfunc_end1: .size haberdashery_aes256gcm_streaming_tigerlake_is_supported, .Lfunc_end1-haberdashery_aes256gcm_streaming_tigerlake_is_supported .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_1: .long 1 .long 0 .long 0 .long 0 .section .text.haberdashery_aes256gcm_streaming_tigerlake_init_state,"ax",@progbits .globl haberdashery_aes256gcm_streaming_tigerlake_init_state .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_tigerlake_init_state,@function haberdashery_aes256gcm_streaming_tigerlake_init_state: .cfi_startproc cmpq $12, %rcx jne .LBB2_2 vmovd (%rdx), %xmm0 vpinsrd $1, 4(%rdx), %xmm0, %xmm0 vpinsrd $2, 8(%rdx), %xmm0, %xmm0 movl $16777216, %eax vpinsrd $3, %eax, %xmm0, %xmm0 vpshufb .LCPI2_0(%rip), %xmm0, %xmm1 vpaddd .LCPI2_1(%rip), %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmovups %ymm2, -56(%rsp) vmovups %ymm2, -88(%rsp) movq $0, -24(%rsp) vxorps %xmm2, %xmm2, %xmm2 vmovaps %xmm2, (%rdi) vmovdqa %xmm0, 16(%rdi) vmovdqa %xmm1, 32(%rdi) vmovups -56(%rsp), %ymm0 vmovups -40(%rsp), %xmm1 movq -24(%rsp), %rax movq -16(%rsp), %rdx vmovups %ymm0, 48(%rdi) vmovups %xmm1, 64(%rdi) movq %rax, 80(%rdi) movq %rdx, 88(%rdi) vmovaps %xmm2, 96(%rdi) .LBB2_2: xorl %eax, %eax cmpq $12, %rcx sete %al vzeroupper retq .Lfunc_end2: .size haberdashery_aes256gcm_streaming_tigerlake_init_state, .Lfunc_end2-haberdashery_aes256gcm_streaming_tigerlake_init_state .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI3_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI3_1: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_streaming_tigerlake_aad_update,"ax",@progbits .globl haberdashery_aes256gcm_streaming_tigerlake_aad_update .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_tigerlake_aad_update,@function haberdashery_aes256gcm_streaming_tigerlake_aad_update: .cfi_startproc movabsq $-2305843009213693951, %rax leaq (%rcx,%rax), %r8 incq %rax cmpq %rax, %r8 jae .LBB3_3 xorl %eax, %eax retq .LBB3_3: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $24, %rsp .cfi_def_cfa_offset 80 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 96(%rdi), %rbx addq %rcx, %rbx xorl %eax, %eax movabsq $2305843009213693950, %r8 cmpq %r8, %rbx ja .LBB3_25 cmpq $0, 104(%rdi) jne .LBB3_25 movq 80(%rdi), %r8 testq %r8, %r8 je .LBB3_6 leaq (%r8,%rcx), %r14 cmpq $15, %r14 ja .LBB3_9 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%r8), %rax movq %rdi, %r15 movq %rax, %rdi movq %rdx, %rsi movq %rcx, %rdx movq %rcx, %r12 callq *memcpy@GOTPCREL(%rip) movq %r15, %rdi movq %r12, %rcx vmovdqa 64(%r15), %xmm0 vpxor (%rsp), %xmm0, %xmm0 vmovdqa %xmm0, 64(%r15) movq %r14, 80(%r15) jmp .LBB3_24 .LBB3_6: movq %rcx, %r14 cmpq $96, %r14 jae .LBB3_11 jmp .LBB3_14 .LBB3_9: vmovaps 64(%rdi), %xmm0 vmovaps %xmm0, (%rsp) movl $16, %eax subq %r8, %rax addq %rsp, %r8 leaq (%rdx,%rax), %r15 movq %rcx, %r14 subq %rax, %r14 movq %rdi, %r12 movq %r8, %rdi movq %rsi, %r13 movq %rdx, %rsi movq %rax, %rdx movq %rcx, %rbp callq *memcpy@GOTPCREL(%rip) movq %r13, %rsi movq %r12, %rdi movq %rbp, %rcx vmovdqa (%rsp), %xmm0 vmovdqa 240(%r13), %xmm1 movq $0, 80(%r12) vpshufb .LCPI3_0(%rip), %xmm0, %xmm0 vpxor (%r12), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI3_1(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm2, %xmm0, %xmm1 vmovdqa %xmm1, (%r12) movq %r15, %rdx cmpq $96, %r14 jb .LBB3_14 .LBB3_11: vmovdqa (%rdi), %xmm8 vmovdqa 240(%rsi), %xmm0 vmovdqa 256(%rsi), %xmm1 vmovdqa 272(%rsi), %xmm2 vmovdqa 288(%rsi), %xmm3 vmovdqa 304(%rsi), %xmm4 vmovdqa 320(%rsi), %xmm5 vmovdqa .LCPI3_0(%rip), %xmm6 vpbroadcastq .LCPI3_1(%rip), %xmm7 .p2align 4, 0x90 .LBB3_12: vmovdqu (%rdx), %xmm9 vmovdqu 16(%rdx), %xmm10 vmovdqu 32(%rdx), %xmm11 vmovdqu 48(%rdx), %xmm12 vmovdqu 64(%rdx), %xmm13 vmovdqu 80(%rdx), %xmm14 addq $96, %rdx addq $-96, %r14 vpshufb %xmm6, %xmm9, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpshufb %xmm6, %xmm10, %xmm9 vpshufb %xmm6, %xmm11, %xmm10 vpshufb %xmm6, %xmm12, %xmm11 vpshufb %xmm6, %xmm13, %xmm12 vpshufb %xmm6, %xmm14, %xmm13 vpclmulqdq $0, %xmm13, %xmm0, %xmm14 vpclmulqdq $1, %xmm13, %xmm0, %xmm15 vpclmulqdq $16, %xmm13, %xmm0, %xmm16 vpxorq %xmm15, %xmm16, %xmm15 vpclmulqdq $17, %xmm13, %xmm0, %xmm13 vpclmulqdq $0, %xmm12, %xmm1, %xmm16 vpclmulqdq $1, %xmm12, %xmm1, %xmm17 vpclmulqdq $16, %xmm12, %xmm1, %xmm18 vpternlogq $150, %xmm17, %xmm15, %xmm18 vpclmulqdq $17, %xmm12, %xmm1, %xmm12 vpclmulqdq $0, %xmm11, %xmm2, %xmm15 vpternlogq $150, %xmm14, %xmm16, %xmm15 vpclmulqdq $1, %xmm11, %xmm2, %xmm14 vpclmulqdq $16, %xmm11, %xmm2, %xmm16 vpternlogq $150, %xmm14, %xmm18, %xmm16 vpclmulqdq $17, %xmm11, %xmm2, %xmm11 vpternlogq $150, %xmm13, %xmm12, %xmm11 vpclmulqdq $0, %xmm10, %xmm3, %xmm12 vpclmulqdq $1, %xmm10, %xmm3, %xmm13 vpclmulqdq $16, %xmm10, %xmm3, %xmm14 vpternlogq $150, %xmm13, %xmm16, %xmm14 vpclmulqdq $17, %xmm10, %xmm3, %xmm10 vpclmulqdq $0, %xmm9, %xmm4, %xmm13 vpternlogq $150, %xmm12, %xmm15, %xmm13 vpclmulqdq $1, %xmm9, %xmm4, %xmm12 vpclmulqdq $16, %xmm9, %xmm4, %xmm15 vpternlogq $150, %xmm12, %xmm14, %xmm15 vpclmulqdq $17, %xmm9, %xmm4, %xmm9 vpternlogq $150, %xmm10, %xmm11, %xmm9 vpclmulqdq $0, %xmm8, %xmm5, %xmm10 vpclmulqdq $1, %xmm8, %xmm5, %xmm11 vpclmulqdq $16, %xmm8, %xmm5, %xmm12 vpternlogq $150, %xmm11, %xmm15, %xmm12 vpclmulqdq $17, %xmm8, %xmm5, %xmm8 vpslldq $8, %xmm12, %xmm11 vpternlogq $150, %xmm10, %xmm13, %xmm11 vpsrldq $8, %xmm12, %xmm10 vpclmulqdq $16, %xmm7, %xmm11, %xmm12 vpshufd $78, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $16, %xmm7, %xmm11, %xmm12 vpternlogq $150, %xmm8, %xmm9, %xmm12 vpshufd $78, %xmm11, %xmm8 vpternlogq $150, %xmm10, %xmm12, %xmm8 cmpq $95, %r14 ja .LBB3_12 vmovdqa %xmm8, (%rdi) .LBB3_14: cmpq $16, %r14 jae .LBB3_15 testq %r14, %r14 je .LBB3_24 .LBB3_23: movl $-1, %eax bzhil %r14d, %eax, %eax kmovd %eax, %k1 vmovdqu8 (%rdx), %xmm0 {%k1} {z} vpxor %xmm1, %xmm1, %xmm1 vmovdqa %xmm1, 48(%rdi) vmovdqa %xmm0, 64(%rdi) movq %r14, 80(%rdi) .LBB3_24: movq %rbx, 96(%rdi) movq %rcx, %rax .LBB3_25: addq $24, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp retq .LBB3_15: .cfi_def_cfa_offset 80 .cfi_offset %rbx, -56 .cfi_offset %rbp, -16 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 vmovdqa (%rdi), %xmm1 vmovdqa 240(%rsi), %xmm0 leaq -16(%r14), %rax testb $16, %al jne .LBB3_17 vmovdqu (%rdx), %xmm2 addq $16, %rdx vpshufb .LCPI3_0(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpbroadcastq .LCPI3_1(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm4 vpshufd $78, %xmm2, %xmm1 vpternlogq $150, %xmm3, %xmm4, %xmm1 movq %rax, %r14 .LBB3_17: cmpq $16, %rax jb .LBB3_21 vmovdqa .LCPI3_0(%rip), %xmm2 vpbroadcastq .LCPI3_1(%rip), %xmm3 .p2align 4, 0x90 .LBB3_19: vmovdqu (%rdx), %xmm4 vmovdqu 16(%rdx), %xmm5 vpshufb %xmm2, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpternlogq $150, %xmm1, %xmm6, %xmm7 vpshufd $78, %xmm4, %xmm1 addq $32, %rdx addq $-32, %r14 vpshufb %xmm2, %xmm5, %xmm4 vpternlogq $150, %xmm1, %xmm7, %xmm4 vpclmulqdq $0, %xmm4, %xmm0, %xmm1 vpclmulqdq $1, %xmm4, %xmm0, %xmm5 vpclmulqdq $16, %xmm4, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm4, %xmm0, %xmm4 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm1, %xmm1 vpsrldq $8, %xmm5, %xmm5 vpclmulqdq $16, %xmm3, %xmm1, %xmm6 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm6, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm6 vpxor %xmm4, %xmm6, %xmm4 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm5, %xmm4, %xmm1 cmpq $15, %r14 ja .LBB3_19 movq %r14, %rax .LBB3_21: vmovdqa %xmm1, (%rdi) movq %rax, %r14 testq %r14, %r14 jne .LBB3_23 jmp .LBB3_24 .Lfunc_end3: .size haberdashery_aes256gcm_streaming_tigerlake_aad_update, .Lfunc_end3-haberdashery_aes256gcm_streaming_tigerlake_aad_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI4_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI4_2: .long 1 .long 0 .long 0 .long 0 .LCPI4_3: .long 2 .long 0 .long 0 .long 0 .LCPI4_4: .long 3 .long 0 .long 0 .long 0 .LCPI4_5: .long 4 .long 0 .long 0 .long 0 .LCPI4_6: .long 5 .long 0 .long 0 .long 0 .LCPI4_7: .long 6 .long 0 .long 0 .long 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI4_1: .quad -4467570830351532032 .section .rodata,"a",@progbits .LCPI4_8: .byte 1 .byte 0 .section .text.haberdashery_aes256gcm_streaming_tigerlake_encrypt_update,"ax",@progbits .globl haberdashery_aes256gcm_streaming_tigerlake_encrypt_update .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_tigerlake_encrypt_update,@function haberdashery_aes256gcm_streaming_tigerlake_encrypt_update: .cfi_startproc cmpq %r9, %rcx jne .LBB4_3 movq %rcx, %rax movabsq $-68719476704, %rcx leaq (%rax,%rcx), %r9 incq %rcx cmpq %rcx, %r9 jb .LBB4_3 movq 104(%rdi), %rcx leaq (%rcx,%rax), %r11 movq %r11, %r9 shrq $5, %r9 cmpq $2147483646, %r9 jbe .LBB4_6 .LBB4_3: xorl %eax, %eax retq .LBB4_6: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $248, %rsp .cfi_def_cfa_offset 304 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 testq %rcx, %rcx setne %r9b movq 80(%rdi), %rcx testq %rcx, %rcx sete %r10b orb %r9b, %r10b je .LBB4_10 testq %rcx, %rcx je .LBB4_11 movq %r11, 16(%rsp) movq %rdi, %rbp leaq (%rcx,%rax), %r13 cmpq $15, %r13 ja .LBB4_12 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r14 movq memcpy@GOTPCREL(%rip), %r12 movq %r14, %rdi movq %rdx, %rsi movq %rax, %rdx movq %rax, %rbx movq %r8, %r15 callq *%r12 vmovdqa (%rsp), %xmm0 vpxor 64(%rbp), %xmm0, %xmm0 vmovdqa %xmm0, 64(%rbp) vmovdqa %xmm0, (%rsp) movq %r15, %rdi movq %r14, %rsi movq %rbx, %rdx callq *%r12 movq %rbp, %rdi movq %rbx, %rax movq 16(%rsp), %r11 jmp .LBB4_24 .LBB4_10: vmovdqa 240(%rsi), %xmm0 vmovdqa 64(%rdi), %xmm1 vpshufb .LCPI4_0(%rip), %xmm1, %xmm1 vpxor (%rdi), %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI4_1(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm2, %xmm0, %xmm1 vmovdqa %xmm1, (%rdi) vpxor %xmm0, %xmm0, %xmm0 vmovdqu %ymm0, 48(%rdi) movq $0, 80(%rdi) .LBB4_11: movq %rax, %r13 cmpq $96, %r13 jb .LBB4_14 .LBB4_16: vmovdqu64 (%rdx), %xmm16 vmovdqu 16(%rdx), %xmm4 vmovdqa 32(%rdi), %xmm2 vmovdqa .LCPI4_0(%rip), %xmm0 vpshufb %xmm0, %xmm2, %xmm5 vpaddd .LCPI4_2(%rip), %xmm2, %xmm1 vpshufb %xmm0, %xmm1, %xmm6 vpaddd .LCPI4_3(%rip), %xmm2, %xmm1 vpshufb %xmm0, %xmm1, %xmm7 vpaddd .LCPI4_4(%rip), %xmm2, %xmm1 vpshufb %xmm0, %xmm1, %xmm8 vpaddd .LCPI4_5(%rip), %xmm2, %xmm1 vpshufb %xmm0, %xmm1, %xmm11 vpaddd .LCPI4_6(%rip), %xmm2, %xmm1 vpshufb %xmm0, %xmm1, %xmm12 vmovdqa (%rsi), %xmm1 vmovdqa 16(%rsi), %xmm3 vmovdqa 32(%rsi), %xmm13 vmovdqa 48(%rsi), %xmm14 vpxor %xmm5, %xmm1, %xmm9 vpxor %xmm6, %xmm1, %xmm10 vpxor %xmm7, %xmm1, %xmm7 vpxor %xmm1, %xmm8, %xmm8 vpxor %xmm1, %xmm11, %xmm5 vpxor %xmm1, %xmm12, %xmm6 vmovdqa64 %xmm3, %xmm18 #APP vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP #APP vaesenc %xmm13, %xmm9, %xmm9 vaesenc %xmm13, %xmm10, %xmm10 vaesenc %xmm13, %xmm7, %xmm7 vaesenc %xmm13, %xmm8, %xmm8 vaesenc %xmm13, %xmm5, %xmm5 vaesenc %xmm13, %xmm6, %xmm6 #NO_APP #APP vaesenc %xmm14, %xmm9, %xmm9 vaesenc %xmm14, %xmm10, %xmm10 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm5, %xmm5 vaesenc %xmm14, %xmm6, %xmm6 #NO_APP vmovdqa 64(%rsi), %xmm11 #APP vaesenc %xmm11, %xmm9, %xmm9 vaesenc %xmm11, %xmm10, %xmm10 vaesenc %xmm11, %xmm7, %xmm7 vaesenc %xmm11, %xmm8, %xmm8 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 #NO_APP vmovdqa 80(%rsi), %xmm12 #APP vaesenc %xmm12, %xmm9, %xmm9 vaesenc %xmm12, %xmm10, %xmm10 vaesenc %xmm12, %xmm7, %xmm7 vaesenc %xmm12, %xmm8, %xmm8 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm12, %xmm6, %xmm6 #NO_APP vmovaps 96(%rsi), %xmm3 vmovaps %xmm3, 16(%rsp) #APP vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovaps 112(%rsi), %xmm3 vmovaps %xmm3, 128(%rsp) #APP vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovaps 128(%rsi), %xmm3 vmovaps %xmm3, 112(%rsp) #APP vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovaps 144(%rsi), %xmm3 vmovaps %xmm3, 96(%rsp) #APP vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovdqa 160(%rsi), %xmm3 vmovdqa64 %xmm3, %xmm29 #APP vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovaps 176(%rsi), %xmm3 vmovaps %xmm3, %xmm25 #APP vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovdqa 192(%rsi), %xmm3 vmovdqa64 %xmm3, %xmm22 #APP vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovdqa 208(%rsi), %xmm3 vmovdqa64 %xmm3, %xmm21 #APP vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 #NO_APP vmovdqa 224(%rsi), %xmm3 vmovdqa %xmm3, %xmm15 #APP vaesenclast %xmm3, %xmm9, %xmm9 vaesenclast %xmm3, %xmm10, %xmm10 vaesenclast %xmm3, %xmm7, %xmm7 vaesenclast %xmm3, %xmm8, %xmm8 vaesenclast %xmm3, %xmm5, %xmm5 vaesenclast %xmm3, %xmm6, %xmm6 #NO_APP vpxorq %xmm16, %xmm9, %xmm16 vpxorq %xmm4, %xmm10, %xmm26 vmovdqu 32(%rdx), %xmm3 vmovdqu 48(%rdx), %xmm4 vpxorq %xmm3, %xmm7, %xmm27 vpxorq %xmm4, %xmm8, %xmm28 vmovdqu 64(%rdx), %xmm3 vmovdqu 80(%rdx), %xmm4 vpxorq %xmm3, %xmm5, %xmm30 vpxor %xmm4, %xmm6, %xmm8 addq $96, %rdx leaq 96(%r8), %rcx vpaddd .LCPI4_7(%rip), %xmm2, %xmm2 vmovdqa %xmm2, 32(%rdi) vmovdqu64 %xmm16, (%r8) vmovdqu64 %xmm26, 16(%r8) vmovdqu64 %xmm27, 32(%r8) vmovdqu64 %xmm28, 48(%r8) vmovdqu64 %xmm30, 64(%r8) addq $-96, %r13 vmovdqu %xmm8, 80(%r8) vmovdqa64 (%rdi), %xmm17 cmpq $96, %r13 jb .LBB4_19 vmovaps 240(%rsi), %xmm2 vmovaps %xmm2, 80(%rsp) vmovaps 256(%rsi), %xmm2 vmovaps %xmm2, 64(%rsp) vmovaps 272(%rsi), %xmm2 vmovaps %xmm2, 48(%rsp) vmovaps 288(%rsi), %xmm2 vmovaps %xmm2, 32(%rsp) vmovaps 304(%rsi), %xmm2 vmovaps %xmm2, 224(%rsp) vmovdqa 320(%rsi), %xmm2 vmovdqa %xmm2, 208(%rsp) vmovdqa64 %xmm18, 192(%rsp) vmovdqa %xmm13, 176(%rsp) vmovdqa %xmm14, 160(%rsp) vmovdqa %xmm11, %xmm5 vmovdqa %xmm12, 144(%rsp) vmovdqa64 128(%rsp), %xmm23 vmovdqa64 112(%rsp), %xmm20 vmovaps 96(%rsp), %xmm24 vmovdqa64 %xmm29, %xmm19 vmovdqa64 %xmm15, %xmm18 .p2align 4, 0x90 .LBB4_18: vmovdqa64 32(%rdi), %xmm29 vpshufb %xmm0, %xmm29, %xmm2 vpaddd .LCPI4_2(%rip), %xmm29, %xmm3 vpshufb %xmm0, %xmm3, %xmm9 vpaddd .LCPI4_3(%rip), %xmm29, %xmm3 vpshufb %xmm0, %xmm3, %xmm10 vpaddd .LCPI4_4(%rip), %xmm29, %xmm3 vpshufb %xmm0, %xmm3, %xmm14 vpaddd .LCPI4_5(%rip), %xmm29, %xmm3 vpshufb %xmm0, %xmm3, %xmm15 vpaddd .LCPI4_6(%rip), %xmm29, %xmm3 vpshufb %xmm0, %xmm3, %xmm31 vpshufb %xmm0, %xmm8, %xmm3 vpxor %xmm2, %xmm1, %xmm13 vpxor %xmm1, %xmm9, %xmm11 vpxor %xmm1, %xmm10, %xmm12 vpxor %xmm1, %xmm14, %xmm9 vpxor %xmm1, %xmm15, %xmm10 vpxorq %xmm31, %xmm1, %xmm8 vmovaps 192(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm13, %xmm13 vaesenc %xmm2, %xmm11, %xmm11 vaesenc %xmm2, %xmm12, %xmm12 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm8, %xmm8 #NO_APP vpxor %xmm15, %xmm15, %xmm15 vxorps %xmm2, %xmm2, %xmm2 vpxor %xmm14, %xmm14, %xmm14 vmovaps 80(%rsp), %xmm6 vmovaps 176(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm9, %xmm9 vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm8, %xmm8 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $0, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm15, %xmm15 vpclmulqdq $17, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm14, %xmm14 vpclmulqdq $1, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 #NO_APP vpshufb %xmm0, %xmm30, %xmm3 vmovaps 160(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm4, %xmm9, %xmm9 vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm4, %xmm8, %xmm8 #NO_APP vmovaps 64(%rsp), %xmm6 #APP vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm5, %xmm12, %xmm12 vaesenc %xmm5, %xmm9, %xmm9 vaesenc %xmm5, %xmm10, %xmm10 vaesenc %xmm5, %xmm8, %xmm8 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $0, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm15, %xmm15 vpclmulqdq $17, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm14, %xmm14 vpclmulqdq $1, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 #NO_APP vpshufb %xmm0, %xmm28, %xmm3 vmovaps 144(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm4, %xmm9, %xmm9 vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm4, %xmm8, %xmm8 #NO_APP vmovaps 48(%rsp), %xmm6 vmovaps 16(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm9, %xmm9 vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm8, %xmm8 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $0, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm15, %xmm15 vpclmulqdq $17, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm14, %xmm14 vpclmulqdq $1, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 #NO_APP vpshufb %xmm0, %xmm27, %xmm3 vmovdqa64 %xmm23, %xmm4 #APP vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm4, %xmm9, %xmm9 vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm4, %xmm8, %xmm8 #NO_APP vmovaps 32(%rsp), %xmm6 vmovdqa64 %xmm20, %xmm7 #APP vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm9, %xmm9 vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm8, %xmm8 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $0, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm15, %xmm15 vpclmulqdq $17, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm14, %xmm14 vpclmulqdq $1, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 #NO_APP vpshufb %xmm0, %xmm26, %xmm3 vmovaps %xmm24, %xmm4 #APP vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm4, %xmm9, %xmm9 vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm4, %xmm8, %xmm8 #NO_APP vmovaps 224(%rsp), %xmm6 vmovdqa64 %xmm19, %xmm7 #APP vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm9, %xmm9 vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm8, %xmm8 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $0, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm15, %xmm15 vpclmulqdq $17, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm14, %xmm14 vpclmulqdq $1, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 #NO_APP vpshufb %xmm0, %xmm16, %xmm3 vpxorq %xmm3, %xmm17, %xmm3 vmovaps %xmm25, %xmm4 #APP vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm4, %xmm9, %xmm9 vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm4, %xmm8, %xmm8 #NO_APP vmovdqa 208(%rsp), %xmm6 vmovdqa64 %xmm22, %xmm7 #APP vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm9, %xmm9 vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm8, %xmm8 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $0, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm15, %xmm15 vpclmulqdq $17, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm14, %xmm14 vpclmulqdq $1, %xmm6, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 #NO_APP vpxor %xmm4, %xmm4, %xmm4 vpunpcklqdq %xmm2, %xmm4, %xmm3 vpxor %xmm3, %xmm15, %xmm3 vpunpckhqdq %xmm4, %xmm2, %xmm2 vpxorq %xmm2, %xmm14, %xmm17 vmovdqu (%rdx), %xmm2 vmovdqa64 %xmm21, %xmm4 #APP vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm4, %xmm9, %xmm9 vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm4, %xmm8, %xmm8 #NO_APP vmovdqa64 %xmm18, %xmm4 #APP vaesenclast %xmm4, %xmm13, %xmm13 vaesenclast %xmm4, %xmm11, %xmm11 vaesenclast %xmm4, %xmm12, %xmm12 vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm4, %xmm10, %xmm10 vaesenclast %xmm4, %xmm8, %xmm8 #NO_APP vpxorq %xmm2, %xmm13, %xmm16 vmovdqu 16(%rdx), %xmm2 vmovdqu 32(%rdx), %xmm4 vpxorq %xmm2, %xmm11, %xmm26 vpxorq %xmm4, %xmm12, %xmm27 vmovdqu 48(%rdx), %xmm2 vmovdqu 64(%rdx), %xmm4 vpxorq %xmm2, %xmm9, %xmm28 vpxorq %xmm4, %xmm10, %xmm30 vmovdqu 80(%rdx), %xmm2 vpxor %xmm2, %xmm8, %xmm8 vpbroadcastq .LCPI4_1(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm3, %xmm2 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpternlogq $150, %xmm3, %xmm2, %xmm17 vpaddd .LCPI4_7(%rip), %xmm29, %xmm2 vmovdqa %xmm2, 32(%rdi) vmovdqu64 %xmm16, (%rcx) vmovdqu64 %xmm26, 16(%rcx) vmovdqu64 %xmm27, 32(%rcx) vmovdqu64 %xmm28, 48(%rcx) vmovdqu64 %xmm30, 64(%rcx) addq $96, %rdx vmovdqu %xmm8, 80(%rcx) addq $96, %rcx addq $-96, %r13 cmpq $95, %r13 ja .LBB4_18 .LBB4_19: vpshufb %xmm0, %xmm16, %xmm1 vpxorq %xmm1, %xmm17, %xmm1 vpshufb %xmm0, %xmm26, %xmm2 vpshufb %xmm0, %xmm27, %xmm3 vpshufb %xmm0, %xmm28, %xmm4 vpshufb %xmm0, %xmm30, %xmm5 vpshufb %xmm0, %xmm8, %xmm0 vmovdqa 240(%rsi), %xmm6 vmovdqa 256(%rsi), %xmm7 vmovdqa 272(%rsi), %xmm8 vmovdqa 288(%rsi), %xmm9 vmovdqa 304(%rsi), %xmm10 vmovdqa 320(%rsi), %xmm11 vpclmulqdq $0, %xmm0, %xmm6, %xmm12 vpclmulqdq $1, %xmm0, %xmm6, %xmm13 vpclmulqdq $16, %xmm0, %xmm6, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $17, %xmm0, %xmm6, %xmm0 vpclmulqdq $0, %xmm5, %xmm7, %xmm6 vpclmulqdq $1, %xmm5, %xmm7, %xmm14 vpclmulqdq $16, %xmm5, %xmm7, %xmm15 vpternlogq $150, %xmm14, %xmm13, %xmm15 vpclmulqdq $17, %xmm5, %xmm7, %xmm5 vpclmulqdq $0, %xmm4, %xmm8, %xmm7 vpternlogq $150, %xmm12, %xmm6, %xmm7 vpclmulqdq $1, %xmm4, %xmm8, %xmm6 vpclmulqdq $16, %xmm4, %xmm8, %xmm12 vpternlogq $150, %xmm6, %xmm15, %xmm12 vpclmulqdq $17, %xmm4, %xmm8, %xmm4 vpternlogq $150, %xmm0, %xmm5, %xmm4 vpclmulqdq $0, %xmm3, %xmm9, %xmm0 vpclmulqdq $1, %xmm3, %xmm9, %xmm5 vpclmulqdq $16, %xmm3, %xmm9, %xmm6 vpternlogq $150, %xmm5, %xmm12, %xmm6 vpclmulqdq $17, %xmm3, %xmm9, %xmm3 vpclmulqdq $0, %xmm2, %xmm10, %xmm5 vpternlogq $150, %xmm0, %xmm7, %xmm5 vpclmulqdq $1, %xmm2, %xmm10, %xmm0 vpclmulqdq $16, %xmm2, %xmm10, %xmm7 vpternlogq $150, %xmm0, %xmm6, %xmm7 vpclmulqdq $17, %xmm2, %xmm10, %xmm0 vpternlogq $150, %xmm3, %xmm4, %xmm0 vpclmulqdq $0, %xmm1, %xmm11, %xmm2 vpclmulqdq $1, %xmm1, %xmm11, %xmm3 vpclmulqdq $16, %xmm1, %xmm11, %xmm4 vpternlogq $150, %xmm3, %xmm7, %xmm4 vpclmulqdq $17, %xmm1, %xmm11, %xmm1 vpslldq $8, %xmm4, %xmm3 vpternlogq $150, %xmm2, %xmm5, %xmm3 vpsrldq $8, %xmm4, %xmm2 vpbroadcastq .LCPI4_1(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm3, %xmm5 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $16, %xmm4, %xmm3, %xmm4 vpternlogq $150, %xmm1, %xmm0, %xmm4 vpshufd $78, %xmm3, %xmm0 vpternlogq $150, %xmm2, %xmm4, %xmm0 vmovdqa %xmm0, (%rdi) movq %rcx, %r8 cmpq $16, %r13 jae .LBB4_20 .LBB4_15: testq %r13, %r13 jne .LBB4_23 jmp .LBB4_25 .LBB4_12: movl $16, %ebx subq %rcx, %rbx leaq (%rdx,%rbx), %rdi movq %rdi, 64(%rsp) leaq (%r8,%rbx), %rdi movq %rdi, 48(%rsp) movq %rax, %r13 subq %rbx, %r13 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r14 movq %r14, %rdi movq %rsi, 80(%rsp) movq %rdx, %rsi movq %rbx, %rdx movq %rax, %r12 movq %r8, %r15 callq *memcpy@GOTPCREL(%rip) vmovaps (%rsp), %xmm0 vxorps 64(%rbp), %xmm0, %xmm0 vmovaps %xmm0, 32(%rsp) vmovaps %xmm0, 64(%rbp) vmovaps %xmm0, (%rsp) movq %r15, %rdi movq %r14, %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) movq 80(%rsp), %rsi movq %rbp, %rdi movq %r12, %rax vmovdqa 240(%rsi), %xmm0 movq $0, 80(%rbp) vmovdqa 32(%rsp), %xmm1 vpshufb .LCPI4_0(%rip), %xmm1, %xmm1 vpxor (%rbp), %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI4_1(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm2, %xmm0, %xmm1 vmovdqa %xmm1, (%rbp) movq 48(%rsp), %r8 movq 64(%rsp), %rdx movq 16(%rsp), %r11 cmpq $96, %r13 jae .LBB4_16 .LBB4_14: cmpq $16, %r13 jb .LBB4_15 .LBB4_20: vmovdqa (%rdi), %xmm10 vmovdqa 32(%rdi), %xmm0 vmovdqa (%rsi), %xmm1 vmovdqa 16(%rsi), %xmm2 vmovdqa 32(%rsi), %xmm3 vmovdqa 48(%rsi), %xmm4 vmovdqa 64(%rsi), %xmm5 vmovdqa 80(%rsi), %xmm6 vmovdqa 96(%rsi), %xmm7 vmovdqa 112(%rsi), %xmm8 vmovdqa 128(%rsi), %xmm9 vmovdqa 144(%rsi), %xmm11 vmovdqa 160(%rsi), %xmm12 vmovdqa 176(%rsi), %xmm13 vmovdqa 192(%rsi), %xmm14 vmovdqa 208(%rsi), %xmm15 vmovdqa64 224(%rsi), %xmm16 vmovdqa64 240(%rsi), %xmm17 vmovdqa64 .LCPI4_0(%rip), %xmm18 vpmovsxbq .LCPI4_8(%rip), %xmm19 vpbroadcastq .LCPI4_1(%rip), %xmm20 .p2align 4, 0x90 .LBB4_21: vpshufb %xmm18, %xmm0, %xmm21 vpxorq %xmm21, %xmm1, %xmm21 vaesenc %xmm2, %xmm21, %xmm21 vaesenc %xmm3, %xmm21, %xmm21 vaesenc %xmm4, %xmm21, %xmm21 vaesenc %xmm5, %xmm21, %xmm21 vaesenc %xmm6, %xmm21, %xmm21 vaesenc %xmm7, %xmm21, %xmm21 vaesenc %xmm8, %xmm21, %xmm21 vaesenc %xmm9, %xmm21, %xmm21 vaesenc %xmm11, %xmm21, %xmm21 vaesenc %xmm12, %xmm21, %xmm21 vaesenc %xmm13, %xmm21, %xmm21 vaesenc %xmm14, %xmm21, %xmm21 vaesenc %xmm15, %xmm21, %xmm21 vaesenclast %xmm16, %xmm21, %xmm21 vpxorq (%rdx), %xmm21, %xmm21 addq $16, %rdx vmovdqu64 %xmm21, (%r8) addq $16, %r8 addq $-16, %r13 vpaddd %xmm19, %xmm0, %xmm0 vpshufb %xmm18, %xmm21, %xmm21 vpxorq %xmm21, %xmm10, %xmm10 vpclmulqdq $0, %xmm10, %xmm17, %xmm21 vpclmulqdq $1, %xmm10, %xmm17, %xmm22 vpclmulqdq $16, %xmm10, %xmm17, %xmm23 vpxorq %xmm22, %xmm23, %xmm22 vpclmulqdq $17, %xmm10, %xmm17, %xmm10 vpslldq $8, %xmm22, %xmm23 vpxorq %xmm23, %xmm21, %xmm21 vpsrldq $8, %xmm22, %xmm22 vpclmulqdq $16, %xmm20, %xmm21, %xmm23 vpshufd $78, %xmm21, %xmm21 vpxorq %xmm21, %xmm23, %xmm21 vpclmulqdq $16, %xmm20, %xmm21, %xmm23 vpxorq %xmm10, %xmm23, %xmm23 vpshufd $78, %xmm21, %xmm10 vpternlogq $150, %xmm22, %xmm23, %xmm10 cmpq $15, %r13 ja .LBB4_21 vmovdqa %xmm0, 32(%rdi) vmovdqa %xmm10, (%rdi) testq %r13, %r13 je .LBB4_25 .LBB4_23: movl $-1, %ecx bzhil %r13d, %ecx, %ecx kmovd %ecx, %k1 vmovdqu8 (%rdx), %xmm0 {%k1} {z} vmovdqa 32(%rdi), %xmm1 vpshufb .LCPI4_0(%rip), %xmm1, %xmm2 vpaddd .LCPI4_2(%rip), %xmm1, %xmm1 vmovdqa %xmm1, 32(%rdi) vpxor (%rsi), %xmm2, %xmm1 vaesenc 16(%rsi), %xmm1, %xmm1 vaesenc 32(%rsi), %xmm1, %xmm1 vaesenc 48(%rsi), %xmm1, %xmm1 vaesenc 64(%rsi), %xmm1, %xmm1 vaesenc 80(%rsi), %xmm1, %xmm1 vaesenc 96(%rsi), %xmm1, %xmm1 vaesenc 112(%rsi), %xmm1, %xmm1 vaesenc 128(%rsi), %xmm1, %xmm1 vaesenc 144(%rsi), %xmm1, %xmm1 vaesenc 160(%rsi), %xmm1, %xmm1 vaesenc 176(%rsi), %xmm1, %xmm1 vaesenc 192(%rsi), %xmm1, %xmm1 vaesenc 208(%rsi), %xmm1, %xmm1 vaesenclast 224(%rsi), %xmm1, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vmovdqu8 %xmm0, (%r8) {%k1} vmovdqa %xmm1, 48(%rdi) vmovdqa %xmm0, 64(%rdi) .LBB4_24: movq %r13, 80(%rdi) .LBB4_25: movq %r11, 104(%rdi) addq $248, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp vzeroupper retq .Lfunc_end4: .size haberdashery_aes256gcm_streaming_tigerlake_encrypt_update, .Lfunc_end4-haberdashery_aes256gcm_streaming_tigerlake_encrypt_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI5_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI5_1: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_streaming_tigerlake_encrypt_finalize,"ax",@progbits .globl haberdashery_aes256gcm_streaming_tigerlake_encrypt_finalize .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_tigerlake_encrypt_finalize,@function haberdashery_aes256gcm_streaming_tigerlake_encrypt_finalize: .cfi_startproc movq %rcx, %rax movq 80(%rdi), %r8 movq 104(%rdi), %rcx testq %rcx, %rcx je .LBB5_1 testq %r8, %r8 je .LBB5_4 movl $-1, %r9d bzhil %r8d, %r9d, %r8d kmovd %r8d, %k1 vmovdqu8 64(%rdi), %xmm0 {%k1} {z} vpshufb .LCPI5_0(%rip), %xmm0, %xmm0 vpxor (%rdi), %xmm0, %xmm0 vmovdqa 240(%rsi), %xmm1 jmp .LBB5_6 .LBB5_1: vmovdqa (%rdi), %xmm0 testq %r8, %r8 je .LBB5_8 vmovdqa 240(%rsi), %xmm1 vmovdqa 64(%rdi), %xmm2 vpshufb .LCPI5_0(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 .LBB5_6: vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI5_1(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm3 vpshufd $78, %xmm1, %xmm0 vpternlogq $150, %xmm2, %xmm3, %xmm0 jmp .LBB5_7 .LBB5_4: vmovdqa (%rdi), %xmm0 .LBB5_7: vpxor %xmm1, %xmm1, %xmm1 vmovdqu %ymm1, 48(%rdi) movq $0, 80(%rdi) .LBB5_8: vmovdqa 240(%rsi), %xmm1 vmovq 96(%rdi), %xmm2 vmovq %rcx, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI5_1(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm3 vpshufd $78, %xmm1, %xmm0 vpternlogq $150, %xmm2, %xmm3, %xmm0 vmovdqa %xmm0, (%rdi) testq %rax, %rax je .LBB5_9 vmovdqa (%rsi), %xmm1 vpxor 16(%rdi), %xmm1, %xmm1 vaesenc 16(%rsi), %xmm1, %xmm1 vaesenc 32(%rsi), %xmm1, %xmm1 vaesenc 48(%rsi), %xmm1, %xmm1 vaesenc 64(%rsi), %xmm1, %xmm1 vaesenc 80(%rsi), %xmm1, %xmm1 vaesenc 96(%rsi), %xmm1, %xmm1 vaesenc 112(%rsi), %xmm1, %xmm1 vaesenc 128(%rsi), %xmm1, %xmm1 vaesenc 144(%rsi), %xmm1, %xmm1 vaesenc 160(%rsi), %xmm1, %xmm1 vaesenc 176(%rsi), %xmm1, %xmm1 vaesenc 192(%rsi), %xmm1, %xmm1 vaesenc 208(%rsi), %xmm1, %xmm1 vaesenclast 224(%rsi), %xmm1, %xmm1 vpshufb .LCPI5_0(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 cmpq $16, %rax jae .LBB5_11 movl $-1, %ecx bzhil %eax, %ecx, %ecx kmovd %ecx, %k1 vmovdqu8 %xmm0, (%rdx) {%k1} vzeroupper retq .LBB5_9: xorl %eax, %eax vzeroupper retq .LBB5_11: vmovdqu %xmm0, (%rdx) movl $16, %eax vzeroupper retq .Lfunc_end5: .size haberdashery_aes256gcm_streaming_tigerlake_encrypt_finalize, .Lfunc_end5-haberdashery_aes256gcm_streaming_tigerlake_encrypt_finalize .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI6_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI6_2: .long 1 .long 0 .long 0 .long 0 .LCPI6_3: .long 2 .long 0 .long 0 .long 0 .LCPI6_4: .long 3 .long 0 .long 0 .long 0 .LCPI6_5: .long 4 .long 0 .long 0 .long 0 .LCPI6_6: .long 5 .long 0 .long 0 .long 0 .LCPI6_7: .long 6 .long 0 .long 0 .long 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI6_1: .quad -4467570830351532032 .section .rodata,"a",@progbits .LCPI6_8: .byte 1 .byte 0 .section .text.haberdashery_aes256gcm_streaming_tigerlake_decrypt_update,"ax",@progbits .globl haberdashery_aes256gcm_streaming_tigerlake_decrypt_update .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_tigerlake_decrypt_update,@function haberdashery_aes256gcm_streaming_tigerlake_decrypt_update: .cfi_startproc cmpq %r9, %rcx jne .LBB6_3 movq %rcx, %rax movabsq $-68719476704, %rcx leaq (%rax,%rcx), %r9 incq %rcx cmpq %rcx, %r9 jb .LBB6_3 movq 104(%rdi), %rcx leaq (%rcx,%rax), %r11 movq %r11, %r9 shrq $5, %r9 cmpq $2147483646, %r9 jbe .LBB6_6 .LBB6_3: xorl %eax, %eax retq .LBB6_6: pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $232, %rsp .cfi_def_cfa_offset 288 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 testq %rcx, %rcx setne %r9b movq 80(%rdi), %rcx testq %rcx, %rcx sete %r10b orb %r9b, %r10b je .LBB6_10 testq %rcx, %rcx je .LBB6_11 movq %r11, 16(%rsp) movq %rdi, %rbp leaq (%rcx,%rax), %r13 cmpq $15, %r13 ja .LBB6_12 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r14 movq memcpy@GOTPCREL(%rip), %r12 movq %r14, %rdi movq %rdx, %rsi movq %rax, %rdx movq %rax, %rbx movq %r8, %r15 callq *%r12 vmovdqa (%rsp), %xmm0 vpxor 64(%rbp), %xmm0, %xmm0 vmovdqa %xmm0, 64(%rbp) vmovdqa %xmm0, (%rsp) movq %r15, %rdi movq %r14, %rsi movq %rbx, %rdx callq *%r12 movq %rbp, %rdi movq %rbx, %rax movq 16(%rsp), %r11 jmp .LBB6_23 .LBB6_10: vmovdqa 240(%rsi), %xmm0 vmovdqa 64(%rdi), %xmm1 vpshufb .LCPI6_0(%rip), %xmm1, %xmm1 vpxor (%rdi), %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI6_1(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm2, %xmm0, %xmm1 vmovdqa %xmm1, (%rdi) vpxor %xmm0, %xmm0, %xmm0 vmovdqu %ymm0, 48(%rdi) movq $0, 80(%rdi) .LBB6_11: movq %rax, %r13 cmpq $96, %r13 jb .LBB6_14 .LBB6_16: vmovdqa64 (%rdi), %xmm24 vmovdqa (%rsi), %xmm0 vmovaps 16(%rsi), %xmm1 vmovaps %xmm1, 16(%rsp) vmovaps 32(%rsi), %xmm1 vmovaps %xmm1, 80(%rsp) vmovaps 48(%rsi), %xmm1 vmovaps %xmm1, 64(%rsp) vmovaps 64(%rsi), %xmm1 vmovaps %xmm1, 48(%rsp) vmovaps 80(%rsi), %xmm1 vmovaps %xmm1, 32(%rsp) vmovaps 96(%rsi), %xmm1 vmovaps %xmm1, 208(%rsp) vmovaps 112(%rsi), %xmm1 vmovaps %xmm1, 192(%rsp) vmovaps 128(%rsi), %xmm1 vmovaps %xmm1, 176(%rsp) vmovaps 144(%rsi), %xmm1 vmovaps %xmm1, 160(%rsp) vmovaps 160(%rsi), %xmm1 vmovaps %xmm1, 144(%rsp) vmovaps 176(%rsi), %xmm1 vmovaps %xmm1, 128(%rsp) vmovaps 192(%rsi), %xmm1 vmovaps %xmm1, 112(%rsp) vmovdqa 208(%rsi), %xmm1 vmovdqa %xmm1, 96(%rsp) vmovapd 224(%rsi), %xmm21 vmovapd 240(%rsi), %xmm22 vmovdqa64 256(%rsi), %xmm18 vmovdqa64 .LCPI6_0(%rip), %xmm16 vpxord %xmm23, %xmm23, %xmm23 vpbroadcastq .LCPI6_1(%rip), %xmm25 vmovdqa64 272(%rsi), %xmm19 vmovdqa64 288(%rsi), %xmm20 vmovdqa 304(%rsi), %xmm4 vmovdqa 320(%rsi), %xmm5 .p2align 4, 0x90 .LBB6_17: vmovdqu64 (%rdx), %xmm27 vmovdqu64 16(%rdx), %xmm28 vmovdqu64 32(%rdx), %xmm29 vmovdqu64 48(%rdx), %xmm30 vmovdqu64 64(%rdx), %xmm31 vmovdqu64 80(%rdx), %xmm17 vmovdqa64 32(%rdi), %xmm26 vpshufb %xmm16, %xmm26, %xmm6 vpaddd .LCPI6_2(%rip), %xmm26, %xmm7 vpshufb %xmm16, %xmm7, %xmm7 vpaddd .LCPI6_3(%rip), %xmm26, %xmm8 vpshufb %xmm16, %xmm8, %xmm8 vpaddd .LCPI6_4(%rip), %xmm26, %xmm9 vpshufb %xmm16, %xmm9, %xmm9 vpaddd .LCPI6_5(%rip), %xmm26, %xmm10 vpshufb %xmm16, %xmm10, %xmm10 vpaddd .LCPI6_6(%rip), %xmm26, %xmm11 vpshufb %xmm16, %xmm11, %xmm11 vpshufb %xmm16, %xmm17, %xmm15 vpxor %xmm6, %xmm0, %xmm6 vpxor %xmm7, %xmm0, %xmm7 vpxor %xmm0, %xmm8, %xmm8 vpxor %xmm0, %xmm9, %xmm9 vpxor %xmm0, %xmm10, %xmm10 vpxor %xmm0, %xmm11, %xmm11 vmovaps 16(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm6, %xmm6 vaesenc %xmm1, %xmm7, %xmm7 vaesenc %xmm1, %xmm8, %xmm8 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 #NO_APP vxorps %xmm13, %xmm13, %xmm13 vxorps %xmm12, %xmm12, %xmm12 vxorps %xmm14, %xmm14, %xmm14 vmovaps 80(%rsp), %xmm2 vmovapd %xmm22, %xmm3 #APP vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm11, %xmm11 vpclmulqdq $16, %xmm3, %xmm15, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm15, %xmm1 vpxor %xmm1, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm15, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpclmulqdq $1, %xmm3, %xmm15, %xmm1 vpxor %xmm1, %xmm13, %xmm13 #NO_APP vpshufb %xmm16, %xmm31, %xmm1 vmovaps 64(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm11, %xmm11 #NO_APP vmovaps 48(%rsp), %xmm2 vmovdqa64 %xmm18, %xmm3 #APP vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm11, %xmm11 vpclmulqdq $16, %xmm3, %xmm1, %xmm15 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm1, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm1, %xmm15 vpxor %xmm15, %xmm12, %xmm12 vpclmulqdq $1, %xmm3, %xmm1, %xmm15 vpxor %xmm15, %xmm13, %xmm13 #NO_APP vpshufb %xmm16, %xmm30, %xmm1 vmovaps 32(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm11, %xmm11 #NO_APP vmovaps 208(%rsp), %xmm2 vmovdqa64 %xmm19, %xmm3 #APP vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm11, %xmm11 vpclmulqdq $16, %xmm3, %xmm1, %xmm15 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm1, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm1, %xmm15 vpxor %xmm15, %xmm12, %xmm12 vpclmulqdq $1, %xmm3, %xmm1, %xmm15 vpxor %xmm15, %xmm13, %xmm13 #NO_APP vpshufb %xmm16, %xmm29, %xmm1 vmovaps 192(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm11, %xmm11 #NO_APP vmovaps 176(%rsp), %xmm2 vmovdqa64 %xmm20, %xmm3 #APP vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm11, %xmm11 vpclmulqdq $16, %xmm3, %xmm1, %xmm15 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm1, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm1, %xmm15 vpxor %xmm15, %xmm12, %xmm12 vpclmulqdq $1, %xmm3, %xmm1, %xmm15 vpxor %xmm15, %xmm13, %xmm13 #NO_APP vpshufb %xmm16, %xmm28, %xmm1 vmovaps 160(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm11, %xmm11 #NO_APP vmovaps 144(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm11, %xmm11 vpclmulqdq $16, %xmm4, %xmm1, %xmm15 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm4, %xmm1, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm4, %xmm1, %xmm15 vpxor %xmm15, %xmm12, %xmm12 vpclmulqdq $1, %xmm4, %xmm1, %xmm15 vpxor %xmm15, %xmm13, %xmm13 #NO_APP vpshufb %xmm16, %xmm27, %xmm1 vpxorq %xmm1, %xmm24, %xmm1 vmovaps 128(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm11, %xmm11 #NO_APP vmovaps 112(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm11, %xmm11 vpclmulqdq $16, %xmm5, %xmm1, %xmm15 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm5, %xmm1, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm5, %xmm1, %xmm15 vpxor %xmm15, %xmm12, %xmm12 vpclmulqdq $1, %xmm5, %xmm1, %xmm15 vpxor %xmm15, %xmm13, %xmm13 #NO_APP vpunpcklqdq %xmm13, %xmm23, %xmm1 vpxor %xmm1, %xmm14, %xmm1 vpunpckhqdq %xmm23, %xmm13, %xmm13 vpxorq %xmm13, %xmm12, %xmm24 vmovaps 96(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm7, %xmm7 vaesenc %xmm2, %xmm8, %xmm8 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm2, %xmm11, %xmm11 #NO_APP vmovapd %xmm21, %xmm2 #APP vaesenclast %xmm2, %xmm6, %xmm6 vaesenclast %xmm2, %xmm7, %xmm7 vaesenclast %xmm2, %xmm8, %xmm8 vaesenclast %xmm2, %xmm9, %xmm9 vaesenclast %xmm2, %xmm10, %xmm10 vaesenclast %xmm2, %xmm11, %xmm11 #NO_APP vpxorq %xmm27, %xmm6, %xmm6 vpxorq %xmm28, %xmm7, %xmm7 vpxorq %xmm29, %xmm8, %xmm8 vpxorq %xmm30, %xmm9, %xmm9 vpxorq %xmm31, %xmm10, %xmm10 vpxorq %xmm17, %xmm11, %xmm11 vpclmulqdq $16, %xmm25, %xmm1, %xmm12 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm1 vpclmulqdq $16, %xmm25, %xmm1, %xmm12 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm12, %xmm1, %xmm24 vpaddd .LCPI6_7(%rip), %xmm26, %xmm1 vmovdqa %xmm1, 32(%rdi) vmovdqu %xmm6, (%r8) vmovdqu %xmm7, 16(%r8) vmovdqu %xmm8, 32(%r8) vmovdqu %xmm9, 48(%r8) vmovdqu %xmm10, 64(%r8) vmovdqu %xmm11, 80(%r8) addq $96, %rdx addq $96, %r8 addq $-96, %r13 cmpq $95, %r13 ja .LBB6_17 vmovdqa64 %xmm24, (%rdi) cmpq $16, %r13 jae .LBB6_19 .LBB6_15: testq %r13, %r13 jne .LBB6_22 jmp .LBB6_24 .LBB6_12: movl $16, %ebx subq %rcx, %rbx leaq (%rdx,%rbx), %rdi movq %rdi, 64(%rsp) leaq (%r8,%rbx), %rdi movq %rdi, 48(%rsp) movq %rax, %r13 subq %rbx, %r13 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) leaq (%rsp,%rcx), %r14 movq %r14, %rdi movq %rsi, 80(%rsp) movq %rdx, %rsi movq %rbx, %rdx movq %rax, %r12 movq %r8, %r15 callq *memcpy@GOTPCREL(%rip) vmovaps (%rsp), %xmm0 vxorps 64(%rbp), %xmm0, %xmm0 vmovaps %xmm0, 32(%rsp) vmovaps %xmm0, 64(%rbp) vmovaps %xmm0, (%rsp) movq %r15, %rdi movq %r14, %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) movq 80(%rsp), %rsi movq %rbp, %rdi movq %r12, %rax movq $0, 80(%rbp) vmovdqa 32(%rsp), %xmm0 vpxor 48(%rbp), %xmm0, %xmm0 vpshufb .LCPI6_0(%rip), %xmm0, %xmm0 vmovdqa 240(%rsi), %xmm1 vpxor (%rbp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI6_1(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm2, %xmm0, %xmm1 vmovdqa %xmm1, (%rbp) movq 48(%rsp), %r8 movq 64(%rsp), %rdx movq 16(%rsp), %r11 cmpq $96, %r13 jae .LBB6_16 .LBB6_14: cmpq $16, %r13 jb .LBB6_15 .LBB6_19: vmovdqa (%rdi), %xmm10 vmovdqa 32(%rdi), %xmm0 vmovdqa 240(%rsi), %xmm1 vmovdqa (%rsi), %xmm2 vmovdqa 16(%rsi), %xmm3 vmovdqa 32(%rsi), %xmm4 vmovdqa 48(%rsi), %xmm5 vmovdqa 64(%rsi), %xmm6 vmovdqa 80(%rsi), %xmm7 vmovdqa 96(%rsi), %xmm8 vmovdqa 112(%rsi), %xmm9 vmovdqa 128(%rsi), %xmm11 vmovdqa 144(%rsi), %xmm12 vmovdqa 160(%rsi), %xmm13 vmovdqa 176(%rsi), %xmm14 vmovdqa 192(%rsi), %xmm15 vmovdqa64 208(%rsi), %xmm16 vmovdqa64 224(%rsi), %xmm17 vmovdqa64 .LCPI6_0(%rip), %xmm18 vpbroadcastq .LCPI6_1(%rip), %xmm19 vpmovsxbq .LCPI6_8(%rip), %xmm20 .p2align 4, 0x90 .LBB6_20: vmovdqu64 (%rdx), %xmm21 vpshufb %xmm18, %xmm0, %xmm22 vpxorq %xmm22, %xmm2, %xmm22 vaesenc %xmm3, %xmm22, %xmm22 vaesenc %xmm4, %xmm22, %xmm22 vaesenc %xmm5, %xmm22, %xmm22 vaesenc %xmm6, %xmm22, %xmm22 vaesenc %xmm7, %xmm22, %xmm22 vaesenc %xmm8, %xmm22, %xmm22 vaesenc %xmm9, %xmm22, %xmm22 vaesenc %xmm11, %xmm22, %xmm22 vaesenc %xmm12, %xmm22, %xmm22 vaesenc %xmm13, %xmm22, %xmm22 vaesenc %xmm14, %xmm22, %xmm22 vaesenc %xmm15, %xmm22, %xmm22 vaesenc %xmm16, %xmm22, %xmm22 vaesenclast %xmm17, %xmm22, %xmm22 vpxorq %xmm21, %xmm22, %xmm22 vmovdqu64 %xmm22, (%r8) addq $16, %r8 addq $-16, %r13 addq $16, %rdx vpshufb %xmm18, %xmm21, %xmm21 vpxorq %xmm21, %xmm10, %xmm10 vpclmulqdq $0, %xmm10, %xmm1, %xmm21 vpclmulqdq $1, %xmm10, %xmm1, %xmm22 vpclmulqdq $16, %xmm10, %xmm1, %xmm23 vpxorq %xmm22, %xmm23, %xmm22 vpclmulqdq $17, %xmm10, %xmm1, %xmm10 vpslldq $8, %xmm22, %xmm23 vpxorq %xmm23, %xmm21, %xmm21 vpsrldq $8, %xmm22, %xmm22 vpclmulqdq $16, %xmm19, %xmm21, %xmm23 vpshufd $78, %xmm21, %xmm21 vpxorq %xmm21, %xmm23, %xmm21 vpclmulqdq $16, %xmm19, %xmm21, %xmm23 vpxorq %xmm10, %xmm23, %xmm23 vpshufd $78, %xmm21, %xmm10 vpternlogq $150, %xmm22, %xmm23, %xmm10 vpaddd %xmm20, %xmm0, %xmm0 cmpq $15, %r13 ja .LBB6_20 vmovdqa %xmm0, 32(%rdi) vmovdqa %xmm10, (%rdi) testq %r13, %r13 je .LBB6_24 .LBB6_22: movl $-1, %ecx bzhil %r13d, %ecx, %ecx kmovd %ecx, %k1 vmovdqu8 (%rdx), %xmm0 {%k1} {z} vmovdqa 32(%rdi), %xmm1 vpshufb .LCPI6_0(%rip), %xmm1, %xmm2 vpaddd .LCPI6_2(%rip), %xmm1, %xmm1 vmovdqa %xmm1, 32(%rdi) vpxor (%rsi), %xmm2, %xmm1 vaesenc 16(%rsi), %xmm1, %xmm1 vaesenc 32(%rsi), %xmm1, %xmm1 vaesenc 48(%rsi), %xmm1, %xmm1 vaesenc 64(%rsi), %xmm1, %xmm1 vaesenc 80(%rsi), %xmm1, %xmm1 vaesenc 96(%rsi), %xmm1, %xmm1 vaesenc 112(%rsi), %xmm1, %xmm1 vaesenc 128(%rsi), %xmm1, %xmm1 vaesenc 144(%rsi), %xmm1, %xmm1 vaesenc 160(%rsi), %xmm1, %xmm1 vaesenc 176(%rsi), %xmm1, %xmm1 vaesenc 192(%rsi), %xmm1, %xmm1 vaesenc 208(%rsi), %xmm1, %xmm1 vaesenclast 224(%rsi), %xmm1, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vmovdqu8 %xmm0, (%r8) {%k1} vmovdqa %xmm1, 48(%rdi) vmovdqa %xmm0, 64(%rdi) .LBB6_23: movq %r13, 80(%rdi) .LBB6_24: movq %r11, 104(%rdi) addq $232, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 .cfi_restore %rbx .cfi_restore %r12 .cfi_restore %r13 .cfi_restore %r14 .cfi_restore %r15 .cfi_restore %rbp vzeroupper retq .Lfunc_end6: .size haberdashery_aes256gcm_streaming_tigerlake_decrypt_update, .Lfunc_end6-haberdashery_aes256gcm_streaming_tigerlake_decrypt_update .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI7_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI7_1: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_streaming_tigerlake_decrypt_finalize,"ax",@progbits .globl haberdashery_aes256gcm_streaming_tigerlake_decrypt_finalize .p2align 4, 0x90 .type haberdashery_aes256gcm_streaming_tigerlake_decrypt_finalize,@function haberdashery_aes256gcm_streaming_tigerlake_decrypt_finalize: .cfi_startproc xorl %eax, %eax cmpq $16, %rcx jne .LBB7_10 vmovdqu (%rdx), %xmm0 movq 104(%rdi), %rax testq %rax, %rax je .LBB7_2 leaq 48(%rdi), %rcx movq 80(%rdi), %rdx testq %rdx, %rdx je .LBB7_5 vmovdqa 48(%rdi), %xmm1 vpxor 64(%rdi), %xmm1, %xmm1 movl $-1, %r8d bzhil %edx, %r8d, %edx kmovd %edx, %k1 vmovdqu8 %xmm1, %xmm1 {%k1} {z} vpshufb .LCPI7_0(%rip), %xmm1, %xmm1 vpxor (%rdi), %xmm1, %xmm1 vmovdqa 240(%rsi), %xmm2 jmp .LBB7_7 .LBB7_2: cmpq $0, 80(%rdi) vmovdqa (%rdi), %xmm1 je .LBB7_9 vmovdqa 240(%rsi), %xmm2 leaq 48(%rdi), %rcx vmovdqa 64(%rdi), %xmm3 vpshufb .LCPI7_0(%rip), %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 .LBB7_7: vpclmulqdq $0, %xmm1, %xmm2, %xmm3 vpclmulqdq $1, %xmm1, %xmm2, %xmm4 vpclmulqdq $16, %xmm1, %xmm2, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm1, %xmm2, %xmm1 vpslldq $8, %xmm4, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpsrldq $8, %xmm4, %xmm3 vpbroadcastq .LCPI7_1(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm4 vpshufd $78, %xmm2, %xmm1 vpternlogq $150, %xmm3, %xmm4, %xmm1 jmp .LBB7_8 .LBB7_5: vmovdqa (%rdi), %xmm1 .LBB7_8: vpxor %xmm2, %xmm2, %xmm2 vmovdqu %ymm2, (%rcx) movq $0, 32(%rcx) .LBB7_9: vmovdqa 240(%rsi), %xmm2 vmovq 96(%rdi), %xmm3 vmovq %rax, %xmm4 vpunpcklqdq %xmm3, %xmm4, %xmm3 vpsllq $3, %xmm3, %xmm3 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $0, %xmm1, %xmm2, %xmm3 vpclmulqdq $1, %xmm1, %xmm2, %xmm4 vpclmulqdq $16, %xmm1, %xmm2, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm1, %xmm2, %xmm1 vpslldq $8, %xmm4, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpsrldq $8, %xmm4, %xmm3 vpbroadcastq .LCPI7_1(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpshufd $78, %xmm2, %xmm2 vpternlogq $150, %xmm3, %xmm1, %xmm2 vmovdqa %xmm2, (%rdi) vmovdqa (%rsi), %xmm1 vpxor 16(%rdi), %xmm1, %xmm1 vaesenc 16(%rsi), %xmm1, %xmm1 vaesenc 32(%rsi), %xmm1, %xmm1 vaesenc 48(%rsi), %xmm1, %xmm1 vaesenc 64(%rsi), %xmm1, %xmm1 vaesenc 80(%rsi), %xmm1, %xmm1 vaesenc 96(%rsi), %xmm1, %xmm1 vaesenc 112(%rsi), %xmm1, %xmm1 vaesenc 128(%rsi), %xmm1, %xmm1 vaesenc 144(%rsi), %xmm1, %xmm1 vaesenc 160(%rsi), %xmm1, %xmm1 vaesenc 176(%rsi), %xmm1, %xmm1 vaesenc 192(%rsi), %xmm1, %xmm1 vaesenc 208(%rsi), %xmm1, %xmm1 vaesenclast 224(%rsi), %xmm1, %xmm1 vpshufb .LCPI7_0(%rip), %xmm2, %xmm2 vpternlogq $150, %xmm1, %xmm0, %xmm2 xorl %eax, %eax vptest %xmm2, %xmm2 sete %al .LBB7_10: vzeroupper retq .Lfunc_end7: .size haberdashery_aes256gcm_streaming_tigerlake_decrypt_finalize, .Lfunc_end7-haberdashery_aes256gcm_streaming_tigerlake_decrypt_finalize .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
53,004
asm/aes192gcm_skylakex.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_1: .quad -4467570830351532032 .section .text.haberdashery_aes192gcm_skylakex_init,"ax",@progbits .globl haberdashery_aes192gcm_skylakex_init .p2align 4, 0x90 .type haberdashery_aes192gcm_skylakex_init,@function haberdashery_aes192gcm_skylakex_init: .cfi_startproc cmpq $24, %rdx jne .LBB0_2 vmovupd (%rsi), %xmm2 vmovq 16(%rsi), %xmm0 vpslldq $4, %xmm2, %xmm1 vpslldq $8, %xmm2, %xmm3 vaeskeygenassist $1, %xmm0, %xmm4 vpslldq $12, %xmm2, %xmm5 vpternlogq $150, %xmm3, %xmm1, %xmm5 vpshufd $85, %xmm4, %xmm1 vpternlogq $150, %xmm5, %xmm2, %xmm1 vmovdqa64 %xmm2, %xmm16 vpshufd $255, %xmm1, %xmm3 vpslldq $4, %xmm0, %xmm4 vpternlogq $150, %xmm3, %xmm0, %xmm4 vpunpcklqdq %xmm1, %xmm0, %xmm18 valignq $1, %xmm1, %xmm4, %xmm17 vpslldq $4, %xmm1, %xmm0 vpslldq $8, %xmm1, %xmm3 vpslldq $12, %xmm1, %xmm5 vpternlogq $150, %xmm3, %xmm0, %xmm5 vaeskeygenassist $2, %xmm4, %xmm0 vpshufd $85, %xmm0, %xmm15 vpternlogq $150, %xmm5, %xmm1, %xmm15 vpshufd $255, %xmm15, %xmm0 vpslldq $4, %xmm4, %xmm1 vpternlogq $150, %xmm0, %xmm4, %xmm1 vpslldq $4, %xmm15, %xmm0 vpslldq $8, %xmm15, %xmm4 vaeskeygenassist $4, %xmm1, %xmm5 vpslldq $12, %xmm15, %xmm6 vpternlogq $150, %xmm4, %xmm0, %xmm6 vpshufd $85, %xmm5, %xmm0 vpternlogq $150, %xmm6, %xmm15, %xmm0 vpshufd $255, %xmm0, %xmm4 vpslldq $4, %xmm1, %xmm7 vpternlogq $150, %xmm4, %xmm1, %xmm7 vpunpcklqdq %xmm0, %xmm1, %xmm4 vpalignr $8, %xmm0, %xmm7, %xmm5 vpslldq $4, %xmm0, %xmm1 vpslldq $8, %xmm0, %xmm6 vpslldq $12, %xmm0, %xmm8 vpternlogq $150, %xmm6, %xmm1, %xmm8 vaeskeygenassist $8, %xmm7, %xmm1 vpshufd $85, %xmm1, %xmm6 vpternlogq $150, %xmm8, %xmm0, %xmm6 vpshufd $255, %xmm6, %xmm0 vpslldq $4, %xmm7, %xmm1 vpternlogq $150, %xmm0, %xmm7, %xmm1 vpslldq $4, %xmm6, %xmm0 vpslldq $8, %xmm6, %xmm7 vaeskeygenassist $16, %xmm1, %xmm8 vpslldq $12, %xmm6, %xmm9 vpternlogq $150, %xmm7, %xmm0, %xmm9 vpshufd $85, %xmm8, %xmm0 vpternlogq $150, %xmm9, %xmm6, %xmm0 vpshufd $255, %xmm0, %xmm7 vpslldq $4, %xmm1, %xmm10 vpternlogq $150, %xmm7, %xmm1, %xmm10 vpunpcklqdq %xmm0, %xmm1, %xmm7 vpalignr $8, %xmm0, %xmm10, %xmm8 vpslldq $4, %xmm0, %xmm1 vpslldq $8, %xmm0, %xmm9 vpslldq $12, %xmm0, %xmm11 vpternlogq $150, %xmm9, %xmm1, %xmm11 vaeskeygenassist $32, %xmm10, %xmm1 vpshufd $85, %xmm1, %xmm9 vpternlogq $150, %xmm11, %xmm0, %xmm9 vpshufd $255, %xmm9, %xmm0 vpslldq $4, %xmm10, %xmm1 vpternlogq $150, %xmm0, %xmm10, %xmm1 vpslldq $4, %xmm9, %xmm0 vpslldq $8, %xmm9, %xmm10 vaeskeygenassist $64, %xmm1, %xmm11 vpslldq $12, %xmm9, %xmm12 vpternlogq $150, %xmm10, %xmm0, %xmm12 vpshufd $85, %xmm11, %xmm0 vpternlogq $150, %xmm12, %xmm9, %xmm0 vpshufd $255, %xmm0, %xmm10 vpslldq $4, %xmm1, %xmm12 vpternlogq $150, %xmm10, %xmm1, %xmm12 vpunpcklqdq %xmm0, %xmm1, %xmm2 vpalignr $8, %xmm0, %xmm12, %xmm3 vpslldq $4, %xmm0, %xmm1 vpslldq $8, %xmm0, %xmm13 vpslldq $12, %xmm0, %xmm14 vpternlogq $150, %xmm13, %xmm1, %xmm14 vaeskeygenassist $128, %xmm12, %xmm1 vpshufd $85, %xmm1, %xmm12 vpternlogq $150, %xmm14, %xmm0, %xmm12 vmovdqa64 %xmm16, %xmm10 vmovdqa64 %xmm18, %xmm0 vaesenc %xmm0, %xmm10, %xmm0 vmovdqa64 %xmm18, %xmm16 vmovdqa64 %xmm17, %xmm11 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm15, %xmm0, %xmm0 vmovapd %xmm15, %xmm22 vaesenc %xmm4, %xmm0, %xmm0 vmovdqa64 %xmm4, %xmm17 vaesenc %xmm5, %xmm0, %xmm0 vmovdqa64 %xmm5, %xmm18 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vmovdqa64 %xmm7, %xmm19 vaesenc %xmm8, %xmm0, %xmm0 vmovdqa64 %xmm8, %xmm20 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm3, %xmm0, %xmm0 vaesenclast %xmm12, %xmm0, %xmm0 vpshufb .LCPI0_0(%rip), %xmm0, %xmm0 vpsrlq $63, %xmm0, %xmm1 vpaddq %xmm0, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm13 vpxor %xmm14, %xmm14, %xmm14 vpblendd $12, %xmm1, %xmm14, %xmm1 vpsllq $63, %xmm1, %xmm14 vpternlogq $30, %xmm13, %xmm0, %xmm14 vpsllq $62, %xmm1, %xmm0 vpsllq $57, %xmm1, %xmm13 vpternlogq $150, %xmm0, %xmm14, %xmm13 vpclmulqdq $0, %xmm13, %xmm13, %xmm0 vpbroadcastq .LCPI0_1(%rip), %xmm15 vpshufd $78, %xmm0, %xmm1 vpclmulqdq $16, %xmm15, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $16, %xmm15, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm14 vpclmulqdq $17, %xmm13, %xmm13, %xmm0 vpternlogq $150, %xmm1, %xmm0, %xmm14 vpclmulqdq $16, %xmm13, %xmm14, %xmm0 vpclmulqdq $1, %xmm13, %xmm14, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm0, %xmm1 vpclmulqdq $0, %xmm13, %xmm14, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpshufd $78, %xmm1, %xmm4 vpclmulqdq $16, %xmm15, %xmm1, %xmm1 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $16, %xmm15, %xmm1, %xmm4 vpclmulqdq $17, %xmm13, %xmm14, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpsrldq $8, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm0, %xmm4, %xmm1 vpclmulqdq $0, %xmm1, %xmm1, %xmm0 vpshufd $78, %xmm0, %xmm4 vpclmulqdq $16, %xmm15, %xmm0, %xmm0 vpxor %xmm4, %xmm0, %xmm0 vpshufd $78, %xmm0, %xmm4 vpclmulqdq $16, %xmm15, %xmm0, %xmm0 vpclmulqdq $17, %xmm1, %xmm1, %xmm5 vpternlogq $150, %xmm0, %xmm5, %xmm4 vpclmulqdq $0, %xmm14, %xmm14, %xmm0 vpshufd $78, %xmm0, %xmm5 vpclmulqdq $16, %xmm15, %xmm0, %xmm0 vpxor %xmm5, %xmm0, %xmm0 vpclmulqdq $16, %xmm15, %xmm0, %xmm5 vpshufd $78, %xmm0, %xmm0 vpclmulqdq $17, %xmm14, %xmm14, %xmm7 vpternlogq $150, %xmm5, %xmm7, %xmm0 vpclmulqdq $16, %xmm13, %xmm0, %xmm5 vpclmulqdq $1, %xmm13, %xmm0, %xmm7 vpxor %xmm5, %xmm7, %xmm5 vpslldq $8, %xmm5, %xmm7 vpclmulqdq $0, %xmm13, %xmm0, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpshufd $78, %xmm7, %xmm8 vpclmulqdq $16, %xmm15, %xmm7, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $16, %xmm15, %xmm7, %xmm8 vpclmulqdq $17, %xmm13, %xmm0, %xmm15 vpxor %xmm8, %xmm15, %xmm8 vpshufd $78, %xmm7, %xmm7 vmovdqa %xmm10, (%rdi) vmovdqa64 %xmm16, 16(%rdi) vmovdqa %xmm11, 32(%rdi) vmovapd %xmm22, 48(%rdi) vmovdqa64 %xmm17, 64(%rdi) vmovdqa64 %xmm18, 80(%rdi) vmovdqa %xmm6, 96(%rdi) vmovdqa64 %xmm19, 112(%rdi) vmovdqa64 %xmm20, 128(%rdi) vmovdqa %xmm9, 144(%rdi) vmovdqa %xmm2, 160(%rdi) vmovdqa %xmm3, 176(%rdi) vmovdqa %xmm12, 192(%rdi) vmovdqa %xmm13, 208(%rdi) vmovdqa %xmm14, 224(%rdi) vmovdqa %xmm1, 240(%rdi) vmovdqa %xmm0, 256(%rdi) vpsrldq $8, %xmm5, %xmm0 vpternlogq $150, %xmm0, %xmm8, %xmm7 vmovdqa %xmm7, 272(%rdi) vmovdqa %xmm4, 288(%rdi) .LBB0_2: xorl %eax, %eax cmpq $24, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes192gcm_skylakex_init, .Lfunc_end0-haberdashery_aes192gcm_skylakex_init .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI1_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_1: .long 1 .long 0 .long 0 .long 0 .LCPI1_2: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_4: .long 2 .long 0 .long 0 .long 0 .LCPI1_5: .long 3 .long 0 .long 0 .long 0 .LCPI1_6: .long 4 .long 0 .long 0 .long 0 .LCPI1_7: .long 5 .long 0 .long 0 .long 0 .LCPI1_8: .long 6 .long 0 .long 0 .long 0 .LCPI1_9: .long 7 .long 0 .long 0 .long 0 .LCPI1_10: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_11: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI1_3: .quad -4467570830351532032 .section .rodata,"a",@progbits .LCPI1_12: .byte 1 .byte 0 .section .text.haberdashery_aes192gcm_skylakex_encrypt,"ax",@progbits .globl haberdashery_aes192gcm_skylakex_encrypt .p2align 4, 0x90 .type haberdashery_aes192gcm_skylakex_encrypt,@function haberdashery_aes192gcm_skylakex_encrypt: .cfi_startproc pushq %rbx .cfi_def_cfa_offset 16 subq $48, %rsp .cfi_def_cfa_offset 64 .cfi_offset %rbx, -16 movq 64(%rsp), %r10 xorl %eax, %eax cmpq 80(%rsp), %r10 jne .LBB1_22 cmpq $16, 96(%rsp) setne %r11b movabsq $2305843009213693950, %rbx cmpq %rbx, %r8 seta %bl orb %r11b, %bl jne .LBB1_22 movq %r10, %r11 shrq $5, %r11 cmpq $2147483647, %r11 setae %r11b cmpq $12, %rdx setne %dl orb %r11b, %dl jne .LBB1_22 vmovd (%rsi), %xmm0 vpinsrd $1, 4(%rsi), %xmm0, %xmm0 vpinsrd $2, 8(%rsi), %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm16 vpxor %xmm1, %xmm1, %xmm1 testq %r8, %r8 je .LBB1_18 cmpq $96, %r8 jb .LBB1_5 vmovdqa64 208(%rdi), %xmm19 vmovdqa64 224(%rdi), %xmm20 vmovdqa64 240(%rdi), %xmm21 vmovdqa64 256(%rdi), %xmm22 vmovdqa 272(%rdi), %xmm5 vmovdqa 288(%rdi), %xmm6 vmovdqa64 .LCPI1_2(%rip), %xmm17 vpbroadcastq .LCPI1_3(%rip), %xmm23 movq %r8, %rdx .p2align 4, 0x90 .LBB1_17: vmovdqu64 (%rcx), %xmm18 vmovdqu 16(%rcx), %xmm10 vmovdqu 32(%rcx), %xmm11 vmovdqu 48(%rcx), %xmm12 vmovdqu 64(%rcx), %xmm13 vmovdqu 80(%rcx), %xmm14 vpshufb %xmm17, %xmm12, %xmm12 vpshufb %xmm17, %xmm13, %xmm13 vpshufb %xmm17, %xmm14, %xmm14 vmovdqa64 %xmm19, %xmm2 vpclmulqdq $0, %xmm14, %xmm2, %xmm15 vpclmulqdq $1, %xmm14, %xmm2, %xmm8 vpclmulqdq $16, %xmm14, %xmm2, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vmovdqa64 %xmm20, %xmm3 vpclmulqdq $0, %xmm13, %xmm3, %xmm8 vpclmulqdq $1, %xmm13, %xmm3, %xmm9 vpclmulqdq $16, %xmm13, %xmm3, %xmm0 vpternlogq $150, %xmm9, %xmm7, %xmm0 vmovdqa64 %xmm21, %xmm4 vpclmulqdq $0, %xmm12, %xmm4, %xmm7 vpternlogq $150, %xmm15, %xmm8, %xmm7 vpclmulqdq $1, %xmm12, %xmm4, %xmm8 vpclmulqdq $16, %xmm12, %xmm4, %xmm9 vpternlogq $150, %xmm8, %xmm0, %xmm9 vpshufb %xmm17, %xmm10, %xmm0 vpshufb %xmm17, %xmm11, %xmm8 vpclmulqdq $17, %xmm14, %xmm2, %xmm10 vpclmulqdq $17, %xmm13, %xmm3, %xmm11 vpclmulqdq $17, %xmm12, %xmm4, %xmm12 vpternlogq $150, %xmm10, %xmm11, %xmm12 vmovdqa64 %xmm22, %xmm2 vpclmulqdq $1, %xmm8, %xmm2, %xmm10 vpclmulqdq $16, %xmm8, %xmm2, %xmm11 vpternlogq $150, %xmm10, %xmm9, %xmm11 vpclmulqdq $0, %xmm8, %xmm2, %xmm9 vpclmulqdq $0, %xmm0, %xmm5, %xmm10 vpternlogq $150, %xmm9, %xmm7, %xmm10 vpclmulqdq $1, %xmm0, %xmm5, %xmm7 vpclmulqdq $16, %xmm0, %xmm5, %xmm9 vpternlogq $150, %xmm7, %xmm11, %xmm9 vpshufb %xmm17, %xmm18, %xmm7 vpxor %xmm7, %xmm1, %xmm1 vpclmulqdq $17, %xmm8, %xmm2, %xmm7 vpclmulqdq $17, %xmm0, %xmm5, %xmm0 vpternlogq $150, %xmm7, %xmm12, %xmm0 vpclmulqdq $1, %xmm1, %xmm6, %xmm7 vpclmulqdq $16, %xmm1, %xmm6, %xmm8 vpternlogq $150, %xmm7, %xmm9, %xmm8 vpclmulqdq $0, %xmm1, %xmm6, %xmm7 vpslldq $8, %xmm8, %xmm9 vpternlogq $150, %xmm7, %xmm10, %xmm9 vpclmulqdq $17, %xmm1, %xmm6, %xmm7 vmovdqa64 %xmm23, %xmm2 vpclmulqdq $16, %xmm2, %xmm9, %xmm1 vpshufd $78, %xmm9, %xmm9 vpxor %xmm1, %xmm9, %xmm9 vpclmulqdq $16, %xmm2, %xmm9, %xmm1 vpternlogq $150, %xmm7, %xmm0, %xmm1 vpsrldq $8, %xmm8, %xmm0 vpshufd $78, %xmm9, %xmm7 addq $96, %rcx addq $-96, %rdx vpternlogq $150, %xmm0, %xmm7, %xmm1 cmpq $95, %rdx ja .LBB1_17 cmpq $16, %rdx jae .LBB1_11 jmp .LBB1_7 .LBB1_18: testq %r10, %r10 jne .LBB1_25 jmp .LBB1_19 .LBB1_5: movq %r8, %rdx cmpq $16, %rdx jb .LBB1_7 .LBB1_11: vmovdqa 208(%rdi), %xmm0 leaq -16(%rdx), %rsi testb $16, %sil je .LBB1_12 cmpq $16, %rsi jae .LBB1_14 .LBB1_8: testq %rsi, %rsi je .LBB1_20 .LBB1_9: movl $-1, %edx bzhil %esi, %edx, %edx kmovd %edx, %k1 vmovdqu8 (%rcx), %xmm0 {%k1} {z} testq %r10, %r10 je .LBB1_10 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB1_22 vmovdqa 208(%rdi), %xmm2 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm0, %xmm2, %xmm1 vpclmulqdq $1, %xmm0, %xmm2, %xmm3 vpclmulqdq $16, %xmm0, %xmm2, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm2, %xmm0 vpslldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI1_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm4 vpxor %xmm0, %xmm3, %xmm1 vpternlogq $150, %xmm2, %xmm4, %xmm1 jmp .LBB1_25 .LBB1_12: vmovdqu (%rcx), %xmm2 addq $16, %rcx vpshufb .LCPI1_2(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpbroadcastq .LCPI1_3(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm1, %xmm4, %xmm1 vpternlogq $150, %xmm3, %xmm2, %xmm1 movq %rsi, %rdx cmpq $16, %rsi jb .LBB1_8 .LBB1_14: vmovdqa .LCPI1_2(%rip), %xmm2 vpbroadcastq .LCPI1_3(%rip), %xmm3 .p2align 4, 0x90 .LBB1_15: vmovdqu (%rcx), %xmm4 vmovdqu 16(%rcx), %xmm5 vpshufb %xmm2, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpshufd $78, %xmm4, %xmm4 vpternlogq $150, %xmm1, %xmm6, %xmm7 addq $32, %rcx addq $-32, %rdx vpshufb %xmm2, %xmm5, %xmm1 vpternlogq $150, %xmm4, %xmm7, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $16, %xmm1, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpclmulqdq $16, %xmm3, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm1, %xmm6, %xmm1 vpternlogq $150, %xmm5, %xmm4, %xmm1 cmpq $15, %rdx ja .LBB1_15 .LBB1_7: movq %rdx, %rsi testq %rsi, %rsi jne .LBB1_9 .LBB1_20: testq %r10, %r10 je .LBB1_19 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB1_22 .LBB1_25: movq 72(%rsp), %rdx vpshufb .LCPI1_0(%rip), %xmm16, %xmm5 vpaddd .LCPI1_1(%rip), %xmm5, %xmm2 cmpq $96, %r10 jb .LBB1_26 vmovdqa64 .LCPI1_2(%rip), %xmm23 vpshufb %xmm23, %xmm2, %xmm0 vpaddd .LCPI1_4(%rip), %xmm5, %xmm2 vpshufb %xmm23, %xmm2, %xmm2 vpaddd .LCPI1_5(%rip), %xmm5, %xmm4 vpshufb %xmm23, %xmm4, %xmm6 vpaddd .LCPI1_6(%rip), %xmm5, %xmm4 vpshufb %xmm23, %xmm4, %xmm7 vpaddd .LCPI1_7(%rip), %xmm5, %xmm4 vpshufb %xmm23, %xmm4, %xmm8 vpaddd .LCPI1_8(%rip), %xmm5, %xmm4 vpshufb %xmm23, %xmm4, %xmm9 vmovdqa (%rdi), %xmm4 vmovaps 16(%rdi), %xmm10 vmovaps 32(%rdi), %xmm11 vmovdqa 48(%rdi), %xmm3 vpxor %xmm0, %xmm4, %xmm0 vpxor %xmm2, %xmm4, %xmm2 vpxor %xmm6, %xmm4, %xmm6 vpxor %xmm7, %xmm4, %xmm7 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm4, %xmm9, %xmm9 #APP vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm6, %xmm6 vaesenc %xmm10, %xmm7, %xmm7 vaesenc %xmm10, %xmm8, %xmm8 vaesenc %xmm10, %xmm9, %xmm9 #NO_APP vmovaps %xmm11, %xmm18 #APP vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 vaesenc %xmm11, %xmm8, %xmm8 vaesenc %xmm11, %xmm9, %xmm9 #NO_APP #APP vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm7, %xmm7 vaesenc %xmm3, %xmm8, %xmm8 vaesenc %xmm3, %xmm9, %xmm9 #NO_APP vmovaps 64(%rdi), %xmm11 vmovaps %xmm11, %xmm31 #APP vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 vaesenc %xmm11, %xmm8, %xmm8 vaesenc %xmm11, %xmm9, %xmm9 #NO_APP vmovdqa 80(%rdi), %xmm14 #APP vaesenc %xmm14, %xmm0, %xmm0 vaesenc %xmm14, %xmm2, %xmm2 vaesenc %xmm14, %xmm6, %xmm6 vaesenc %xmm14, %xmm7, %xmm7 vaesenc %xmm14, %xmm8, %xmm8 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP vmovdqa 96(%rdi), %xmm15 #APP vaesenc %xmm15, %xmm0, %xmm0 vaesenc %xmm15, %xmm2, %xmm2 vaesenc %xmm15, %xmm6, %xmm6 vaesenc %xmm15, %xmm7, %xmm7 vaesenc %xmm15, %xmm8, %xmm8 vaesenc %xmm15, %xmm9, %xmm9 #NO_APP vmovaps 112(%rdi), %xmm12 vmovaps %xmm12, -96(%rsp) #APP vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm6, %xmm6 vaesenc %xmm12, %xmm7, %xmm7 vaesenc %xmm12, %xmm8, %xmm8 vaesenc %xmm12, %xmm9, %xmm9 #NO_APP vmovdqa 128(%rdi), %xmm12 #APP vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm6, %xmm6 vaesenc %xmm12, %xmm7, %xmm7 vaesenc %xmm12, %xmm8, %xmm8 vaesenc %xmm12, %xmm9, %xmm9 #NO_APP vmovaps 144(%rdi), %xmm11 vmovaps %xmm11, -112(%rsp) #APP vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 vaesenc %xmm11, %xmm8, %xmm8 vaesenc %xmm11, %xmm9, %xmm9 #NO_APP vmovaps 160(%rdi), %xmm11 #APP vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 vaesenc %xmm11, %xmm8, %xmm8 vaesenc %xmm11, %xmm9, %xmm9 #NO_APP vmovaps 176(%rdi), %xmm13 vmovaps %xmm13, %xmm30 #APP vaesenc %xmm13, %xmm0, %xmm0 vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm13, %xmm6, %xmm6 vaesenc %xmm13, %xmm7, %xmm7 vaesenc %xmm13, %xmm8, %xmm8 vaesenc %xmm13, %xmm9, %xmm9 #NO_APP vmovdqa 192(%rdi), %xmm13 #APP vaesenclast %xmm13, %xmm0, %xmm0 vaesenclast %xmm13, %xmm2, %xmm2 vaesenclast %xmm13, %xmm6, %xmm6 vaesenclast %xmm13, %xmm7, %xmm7 vaesenclast %xmm13, %xmm8, %xmm8 vaesenclast %xmm13, %xmm9, %xmm9 #NO_APP vpxorq (%r9), %xmm0, %xmm17 vpxorq 16(%r9), %xmm2, %xmm19 vpxorq 32(%r9), %xmm6, %xmm26 vpxorq 48(%r9), %xmm7, %xmm27 vpxorq 64(%r9), %xmm8, %xmm28 vpxor 80(%r9), %xmm9, %xmm0 leaq 96(%r9), %r9 leaq 96(%rdx), %rcx vpaddd .LCPI1_9(%rip), %xmm5, %xmm2 vmovdqu64 %xmm17, (%rdx) vmovdqu64 %xmm19, 16(%rdx) vmovdqu64 %xmm26, 32(%rdx) vmovdqu64 %xmm27, 48(%rdx) leaq -96(%r10), %rax vmovdqu64 %xmm28, 64(%rdx) vmovdqu %xmm0, 80(%rdx) cmpq $96, %rax jb .LBB1_37 vmovdqa64 %xmm16, -128(%rsp) vmovdqa %xmm3, %xmm5 vmovaps 208(%rdi), %xmm3 vmovaps %xmm3, 32(%rsp) vmovaps 224(%rdi), %xmm3 vmovaps %xmm3, 16(%rsp) vmovaps 240(%rdi), %xmm3 vmovaps %xmm3, (%rsp) vmovaps 256(%rdi), %xmm3 vmovaps %xmm3, -16(%rsp) vmovaps 272(%rdi), %xmm3 vmovaps %xmm3, -32(%rsp) vmovdqa 288(%rdi), %xmm3 vmovdqa %xmm3, -48(%rsp) vmovaps %xmm18, -64(%rsp) vmovdqa %xmm5, -80(%rsp) vmovdqa64 %xmm14, %xmm25 vmovaps %xmm11, %xmm16 vmovdqa64 %xmm15, %xmm24 vmovaps -96(%rsp), %xmm18 vmovdqa64 %xmm12, %xmm22 vmovdqa64 -112(%rsp), %xmm20 vmovdqa64 %xmm13, %xmm21 .p2align 4, 0x90 .LBB1_35: vpshufb %xmm23, %xmm2, %xmm5 vpaddd .LCPI1_1(%rip), %xmm2, %xmm6 vpshufb %xmm23, %xmm6, %xmm6 vpaddd .LCPI1_4(%rip), %xmm2, %xmm7 vpshufb %xmm23, %xmm7, %xmm7 vpaddd .LCPI1_5(%rip), %xmm2, %xmm8 vpshufb %xmm23, %xmm8, %xmm8 vpaddd .LCPI1_6(%rip), %xmm2, %xmm9 vpshufb %xmm23, %xmm9, %xmm12 vpaddd .LCPI1_7(%rip), %xmm2, %xmm9 vpshufb %xmm23, %xmm9, %xmm13 vpshufb %xmm23, %xmm0, %xmm9 vpxor %xmm5, %xmm4, %xmm14 vpxor %xmm6, %xmm4, %xmm15 vpxor %xmm7, %xmm4, %xmm0 vpxor %xmm4, %xmm8, %xmm5 vpxor %xmm4, %xmm12, %xmm12 vpxor %xmm4, %xmm13, %xmm13 #APP vaesenc %xmm10, %xmm14, %xmm14 vaesenc %xmm10, %xmm15, %xmm15 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm10, %xmm12, %xmm12 vaesenc %xmm10, %xmm13, %xmm13 #NO_APP vpxor %xmm7, %xmm7, %xmm7 vpxor %xmm8, %xmm8, %xmm8 vpxor %xmm6, %xmm6, %xmm6 vmovaps %xmm10, %xmm29 vmovaps 32(%rsp), %xmm11 vmovaps -64(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vpclmulqdq $16, %xmm11, %xmm9, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $0, %xmm11, %xmm9, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $17, %xmm11, %xmm9, %xmm10 vpxor %xmm6, %xmm10, %xmm6 vpclmulqdq $1, %xmm11, %xmm9, %xmm10 vpxor %xmm10, %xmm8, %xmm8 #NO_APP vpshufb %xmm23, %xmm28, %xmm9 vmovaps 16(%rsp), %xmm3 vmovaps -80(%rsp), %xmm11 #APP vaesenc %xmm11, %xmm14, %xmm14 vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm12, %xmm12 vaesenc %xmm11, %xmm13, %xmm13 vpclmulqdq $16, %xmm3, %xmm9, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $0, %xmm3, %xmm9, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $17, %xmm3, %xmm9, %xmm10 vpxor %xmm6, %xmm10, %xmm6 vpclmulqdq $1, %xmm3, %xmm9, %xmm10 vpxor %xmm10, %xmm8, %xmm8 #NO_APP vpshufb %xmm23, %xmm27, %xmm9 vmovaps %xmm31, %xmm3 #APP vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 #NO_APP vmovaps (%rsp), %xmm3 vmovdqa64 %xmm25, %xmm11 #APP vaesenc %xmm11, %xmm14, %xmm14 vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm12, %xmm12 vaesenc %xmm11, %xmm13, %xmm13 vpclmulqdq $16, %xmm3, %xmm9, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $0, %xmm3, %xmm9, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $17, %xmm3, %xmm9, %xmm10 vpxor %xmm6, %xmm10, %xmm6 vpclmulqdq $1, %xmm3, %xmm9, %xmm10 vpxor %xmm10, %xmm8, %xmm8 #NO_APP vpshufb %xmm23, %xmm26, %xmm9 vmovdqa64 %xmm24, %xmm3 #APP vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 #NO_APP vmovaps %xmm18, %xmm11 vmovaps -16(%rsp), %xmm3 #APP vaesenc %xmm11, %xmm14, %xmm14 vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm12, %xmm12 vaesenc %xmm11, %xmm13, %xmm13 vpclmulqdq $16, %xmm3, %xmm9, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $0, %xmm3, %xmm9, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $17, %xmm3, %xmm9, %xmm10 vpxor %xmm6, %xmm10, %xmm6 vpclmulqdq $1, %xmm3, %xmm9, %xmm10 vpxor %xmm10, %xmm8, %xmm8 #NO_APP vpshufb %xmm23, %xmm19, %xmm9 vmovdqa64 %xmm22, %xmm3 #APP vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 #NO_APP vmovdqa64 %xmm20, %xmm11 vmovaps -32(%rsp), %xmm3 #APP vaesenc %xmm11, %xmm14, %xmm14 vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm12, %xmm12 vaesenc %xmm11, %xmm13, %xmm13 vpclmulqdq $16, %xmm3, %xmm9, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpclmulqdq $0, %xmm3, %xmm9, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $17, %xmm3, %xmm9, %xmm10 vpxor %xmm6, %xmm10, %xmm6 vpclmulqdq $1, %xmm3, %xmm9, %xmm10 vpxor %xmm10, %xmm8, %xmm8 #NO_APP vmovaps %xmm29, %xmm10 vpshufb %xmm23, %xmm17, %xmm9 vpxor %xmm1, %xmm9, %xmm1 vmovaps %xmm16, %xmm3 vmovaps -48(%rsp), %xmm11 #APP vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm12, %xmm12 vaesenc %xmm3, %xmm13, %xmm13 vpclmulqdq $16, %xmm11, %xmm1, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpclmulqdq $0, %xmm11, %xmm1, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $17, %xmm11, %xmm1, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $1, %xmm11, %xmm1, %xmm9 vpxor %xmm9, %xmm8, %xmm8 #NO_APP vmovaps %xmm30, %xmm1 #APP vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 #NO_APP vmovdqa64 %xmm21, %xmm1 #APP vaesenclast %xmm1, %xmm14, %xmm14 vaesenclast %xmm1, %xmm15, %xmm15 vaesenclast %xmm1, %xmm0, %xmm0 vaesenclast %xmm1, %xmm5, %xmm5 vaesenclast %xmm1, %xmm12, %xmm12 vaesenclast %xmm1, %xmm13, %xmm13 #NO_APP vpxorq (%r9), %xmm14, %xmm17 vpxorq 16(%r9), %xmm15, %xmm19 vpxorq 32(%r9), %xmm0, %xmm26 vpxorq 48(%r9), %xmm5, %xmm27 vpxor %xmm0, %xmm0, %xmm0 vpunpcklqdq %xmm8, %xmm0, %xmm1 vpunpckhqdq %xmm0, %xmm8, %xmm5 vpxorq 64(%r9), %xmm12, %xmm28 vpxor 80(%r9), %xmm13, %xmm0 vpxor %xmm1, %xmm7, %xmm1 vpshufd $78, %xmm1, %xmm7 vpbroadcastq .LCPI1_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm1 vpxor %xmm7, %xmm1, %xmm7 vpxor %xmm5, %xmm6, %xmm1 vpshufd $78, %xmm7, %xmm5 vpclmulqdq $16, %xmm3, %xmm7, %xmm6 vpternlogq $150, %xmm6, %xmm5, %xmm1 addq $96, %r9 vmovdqu64 %xmm17, (%rcx) vmovdqu64 %xmm19, 16(%rcx) vmovdqu64 %xmm26, 32(%rcx) vmovdqu64 %xmm27, 48(%rcx) vmovdqu64 %xmm28, 64(%rcx) vmovdqu %xmm0, 80(%rcx) addq $96, %rcx addq $-96, %rax vpaddd .LCPI1_8(%rip), %xmm2, %xmm2 cmpq $95, %rax ja .LBB1_35 vmovdqa64 -128(%rsp), %xmm16 .LBB1_37: vpshufb %xmm23, %xmm17, %xmm6 vpshufb %xmm23, %xmm19, %xmm4 vpshufb %xmm23, %xmm26, %xmm5 vpshufb %xmm23, %xmm27, %xmm7 vpshufb %xmm23, %xmm28, %xmm8 vpshufb %xmm23, %xmm0, %xmm3 vpxor %xmm6, %xmm1, %xmm13 vmovdqa 208(%rdi), %xmm6 vmovdqa 224(%rdi), %xmm9 vmovdqa 240(%rdi), %xmm10 vmovdqa 256(%rdi), %xmm11 vmovdqa 272(%rdi), %xmm12 vmovdqa 288(%rdi), %xmm1 vpclmulqdq $0, %xmm3, %xmm6, %xmm0 vmovdqa64 %xmm0, %xmm18 vpclmulqdq $1, %xmm3, %xmm6, %xmm14 vpclmulqdq $16, %xmm3, %xmm6, %xmm15 vpxorq %xmm14, %xmm15, %xmm17 vpclmulqdq $17, %xmm3, %xmm6, %xmm3 vpclmulqdq $0, %xmm8, %xmm9, %xmm6 vpclmulqdq $1, %xmm8, %xmm9, %xmm15 vpclmulqdq $16, %xmm8, %xmm9, %xmm14 vpclmulqdq $17, %xmm8, %xmm9, %xmm8 vpternlogq $150, %xmm15, %xmm17, %xmm14 vpclmulqdq $0, %xmm7, %xmm10, %xmm9 vpclmulqdq $1, %xmm7, %xmm10, %xmm15 vpclmulqdq $16, %xmm7, %xmm10, %xmm0 vpclmulqdq $17, %xmm7, %xmm10, %xmm7 vpternlogq $150, %xmm18, %xmm6, %xmm9 vpternlogq $150, %xmm15, %xmm14, %xmm0 vpternlogq $150, %xmm3, %xmm8, %xmm7 vpclmulqdq $0, %xmm5, %xmm11, %xmm3 vpclmulqdq $1, %xmm5, %xmm11, %xmm6 vpclmulqdq $16, %xmm5, %xmm11, %xmm8 vpclmulqdq $17, %xmm5, %xmm11, %xmm5 vpternlogq $150, %xmm6, %xmm0, %xmm8 vpclmulqdq $0, %xmm4, %xmm12, %xmm0 vpclmulqdq $1, %xmm4, %xmm12, %xmm6 vpclmulqdq $16, %xmm4, %xmm12, %xmm10 vpclmulqdq $17, %xmm4, %xmm12, %xmm4 vpternlogq $150, %xmm3, %xmm9, %xmm0 vpternlogq $150, %xmm6, %xmm8, %xmm10 vpternlogq $150, %xmm5, %xmm7, %xmm4 vpclmulqdq $0, %xmm13, %xmm1, %xmm3 vpclmulqdq $1, %xmm13, %xmm1, %xmm5 vpclmulqdq $16, %xmm13, %xmm1, %xmm6 vpclmulqdq $17, %xmm13, %xmm1, %xmm7 vpternlogq $150, %xmm5, %xmm10, %xmm6 vpslldq $8, %xmm6, %xmm1 vpternlogq $150, %xmm3, %xmm0, %xmm1 vpsrldq $8, %xmm6, %xmm0 vpbroadcastq .LCPI1_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm5 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm5 vpclmulqdq $16, %xmm3, %xmm5, %xmm1 vpshufd $78, %xmm5, %xmm3 vpternlogq $150, %xmm7, %xmm4, %xmm1 vpternlogq $150, %xmm0, %xmm3, %xmm1 movq %rcx, %rdx cmpq $16, %rax jae .LBB1_38 .LBB1_28: movq %rdx, %rcx movq %r9, %rsi jmp .LBB1_29 .LBB1_26: movq %r10, %rax cmpq $16, %rax jb .LBB1_28 .LBB1_38: vmovdqa64 (%rdi), %xmm19 vmovdqa64 16(%rdi), %xmm21 vmovdqa64 32(%rdi), %xmm22 vmovdqa64 48(%rdi), %xmm23 vmovdqa64 64(%rdi), %xmm24 vmovdqa 80(%rdi), %xmm7 vmovdqa 96(%rdi), %xmm8 vmovdqa 112(%rdi), %xmm9 vmovdqa 128(%rdi), %xmm10 vmovdqa 144(%rdi), %xmm11 vmovdqa 160(%rdi), %xmm12 vmovdqa 176(%rdi), %xmm13 vmovdqa 192(%rdi), %xmm14 vmovdqa 208(%rdi), %xmm15 vmovdqa64 .LCPI1_2(%rip), %xmm17 vpmovsxbq .LCPI1_12(%rip), %xmm18 vpbroadcastq .LCPI1_3(%rip), %xmm0 .p2align 4, 0x90 .LBB1_39: vpshufb %xmm17, %xmm2, %xmm20 vpxorq %xmm20, %xmm19, %xmm3 vmovdqa64 %xmm21, %xmm4 vaesenc %xmm4, %xmm3, %xmm3 vmovdqa64 %xmm22, %xmm4 vaesenc %xmm4, %xmm3, %xmm3 vmovdqa64 %xmm23, %xmm4 vaesenc %xmm4, %xmm3, %xmm3 vmovdqa64 %xmm24, %xmm4 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm13, %xmm3, %xmm3 vaesenclast %xmm14, %xmm3, %xmm3 vpxor (%r9), %xmm3, %xmm3 vpshufb %xmm17, %xmm3, %xmm20 vpxorq %xmm20, %xmm1, %xmm1 vpclmulqdq $1, %xmm1, %xmm15, %xmm4 vpclmulqdq $16, %xmm1, %xmm15, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $0, %xmm1, %xmm15, %xmm5 vpclmulqdq $17, %xmm1, %xmm15, %xmm1 vpslldq $8, %xmm4, %xmm20 vpxorq %xmm20, %xmm5, %xmm5 vpclmulqdq $16, %xmm0, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $16, %xmm0, %xmm5, %xmm6 vpxor %xmm1, %xmm6, %xmm1 vpshufd $78, %xmm5, %xmm5 leaq 16(%r9), %rsi leaq 16(%rdx), %rcx addq $-16, %rax vpaddd %xmm18, %xmm2, %xmm2 vmovdqu %xmm3, (%rdx) vpsrldq $8, %xmm4, %xmm3 vpternlogq $150, %xmm3, %xmm5, %xmm1 movq %rcx, %rdx movq %rsi, %r9 cmpq $15, %rax ja .LBB1_39 .LBB1_29: testq %rax, %rax je .LBB1_19 movl $-1, %edx bzhil %eax, %edx, %eax kmovd %eax, %k1 vmovdqu8 (%rsi), %xmm0 {%k1} {z} vpshufb .LCPI1_2(%rip), %xmm2, %xmm2 vpxor (%rdi), %xmm2, %xmm2 vaesenc 16(%rdi), %xmm2, %xmm2 vaesenc 32(%rdi), %xmm2, %xmm2 vaesenc 48(%rdi), %xmm2, %xmm2 vaesenc 64(%rdi), %xmm2, %xmm2 vaesenc 80(%rdi), %xmm2, %xmm2 vaesenc 96(%rdi), %xmm2, %xmm2 vaesenc 112(%rdi), %xmm2, %xmm2 vaesenc 128(%rdi), %xmm2, %xmm2 vaesenc 144(%rdi), %xmm2, %xmm2 vaesenc 160(%rdi), %xmm2, %xmm2 vaesenc 176(%rdi), %xmm2, %xmm2 vaesenclast 192(%rdi), %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vmovdqu8 %xmm0, (%rcx) {%k1} testq %r10, %r10 je .LBB1_10 vmovdqu8 %xmm0, %xmm0 {%k1} {z} vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vmovdqa 208(%rdi), %xmm2 jmp .LBB1_32 .LBB1_10: vmovdqa 208(%rdi), %xmm2 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 .LBB1_32: vpxor %xmm0, %xmm1, %xmm3 vpclmulqdq $0, %xmm3, %xmm2, %xmm0 vpclmulqdq $1, %xmm3, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $17, %xmm3, %xmm2, %xmm2 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsrldq $8, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm2 vpbroadcastq .LCPI1_3(%rip), %xmm1 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm1 vpternlogq $150, %xmm3, %xmm2, %xmm1 .LBB1_19: movq 88(%rsp), %rax vmovdqa 208(%rdi), %xmm0 vmovq %r8, %xmm2 vmovq %r10, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI1_3(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpxorq (%rdi), %xmm16, %xmm4 vaesenc 16(%rdi), %xmm4, %xmm4 vaesenc 32(%rdi), %xmm4, %xmm4 vaesenc 48(%rdi), %xmm4, %xmm4 vaesenc 64(%rdi), %xmm4, %xmm4 vaesenc 80(%rdi), %xmm4, %xmm4 vaesenc 96(%rdi), %xmm4, %xmm4 vaesenc 112(%rdi), %xmm4, %xmm4 vaesenc 128(%rdi), %xmm4, %xmm4 vaesenc 144(%rdi), %xmm4, %xmm4 vaesenc 160(%rdi), %xmm4, %xmm4 vaesenc 176(%rdi), %xmm4, %xmm4 vaesenclast 192(%rdi), %xmm4, %xmm4 vpxor %xmm0, %xmm2, %xmm0 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpshufb .LCPI1_10(%rip), %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpshufb .LCPI1_11(%rip), %xmm1, %xmm1 vpternlogq $150, %xmm0, %xmm4, %xmm1 vmovdqu %xmm1, (%rax) movl $1, %eax .LBB1_22: addq $48, %rsp .cfi_def_cfa_offset 16 popq %rbx .cfi_def_cfa_offset 8 retq .Lfunc_end1: .size haberdashery_aes192gcm_skylakex_encrypt, .Lfunc_end1-haberdashery_aes192gcm_skylakex_encrypt .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_1: .long 1 .long 0 .long 0 .long 0 .LCPI2_2: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_4: .long 2 .long 0 .long 0 .long 0 .LCPI2_5: .long 3 .long 0 .long 0 .long 0 .LCPI2_6: .long 4 .long 0 .long 0 .long 0 .LCPI2_7: .long 5 .long 0 .long 0 .long 0 .LCPI2_8: .long 6 .long 0 .long 0 .long 0 .LCPI2_9: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI2_10: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI2_3: .quad -4467570830351532032 .section .rodata,"a",@progbits .LCPI2_11: .byte 1 .byte 0 .section .text.haberdashery_aes192gcm_skylakex_decrypt,"ax",@progbits .globl haberdashery_aes192gcm_skylakex_decrypt .p2align 4, 0x90 .type haberdashery_aes192gcm_skylakex_decrypt,@function haberdashery_aes192gcm_skylakex_decrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r14 .cfi_def_cfa_offset 24 pushq %rbx .cfi_def_cfa_offset 32 subq $32, %rsp .cfi_def_cfa_offset 64 .cfi_offset %rbx, -32 .cfi_offset %r14, -24 .cfi_offset %rbp, -16 movq 64(%rsp), %r10 xorl %eax, %eax cmpq 96(%rsp), %r10 jne .LBB2_5 cmpq $16, 80(%rsp) setne %r11b movabsq $2305843009213693950, %rbx cmpq %rbx, %r8 seta %bl movq %r10, %r14 shrq $5, %r14 cmpq $2147483647, %r14 setae %bpl orb %r11b, %bl orb %bpl, %bl cmpq $12, %rdx setne %dl orb %bl, %dl jne .LBB2_5 vmovd (%rsi), %xmm0 vpinsrd $1, 4(%rsi), %xmm0, %xmm0 vpinsrd $2, 8(%rsi), %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm16 vpxor %xmm1, %xmm1, %xmm1 testq %r8, %r8 je .LBB2_3 cmpq $96, %r8 jb .LBB2_7 vmovdqa64 208(%rdi), %xmm19 vmovdqa64 224(%rdi), %xmm20 vmovdqa64 240(%rdi), %xmm21 vmovdqa64 256(%rdi), %xmm22 vmovdqa 272(%rdi), %xmm5 vmovdqa 288(%rdi), %xmm6 vmovdqa64 .LCPI2_2(%rip), %xmm17 vpbroadcastq .LCPI2_3(%rip), %xmm23 movq %r8, %rdx .p2align 4, 0x90 .LBB2_19: vmovdqu64 (%rcx), %xmm18 vmovdqu 16(%rcx), %xmm10 vmovdqu 32(%rcx), %xmm11 vmovdqu 48(%rcx), %xmm12 vmovdqu 64(%rcx), %xmm13 vmovdqu 80(%rcx), %xmm14 vpshufb %xmm17, %xmm12, %xmm12 vpshufb %xmm17, %xmm13, %xmm13 vpshufb %xmm17, %xmm14, %xmm14 vmovdqa64 %xmm19, %xmm2 vpclmulqdq $0, %xmm14, %xmm2, %xmm15 vpclmulqdq $1, %xmm14, %xmm2, %xmm8 vpclmulqdq $16, %xmm14, %xmm2, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vmovdqa64 %xmm20, %xmm3 vpclmulqdq $0, %xmm13, %xmm3, %xmm8 vpclmulqdq $1, %xmm13, %xmm3, %xmm9 vpclmulqdq $16, %xmm13, %xmm3, %xmm0 vpternlogq $150, %xmm9, %xmm7, %xmm0 vmovdqa64 %xmm21, %xmm4 vpclmulqdq $0, %xmm12, %xmm4, %xmm7 vpternlogq $150, %xmm15, %xmm8, %xmm7 vpclmulqdq $1, %xmm12, %xmm4, %xmm8 vpclmulqdq $16, %xmm12, %xmm4, %xmm9 vpternlogq $150, %xmm8, %xmm0, %xmm9 vpshufb %xmm17, %xmm10, %xmm0 vpshufb %xmm17, %xmm11, %xmm8 vpclmulqdq $17, %xmm14, %xmm2, %xmm10 vpclmulqdq $17, %xmm13, %xmm3, %xmm11 vpclmulqdq $17, %xmm12, %xmm4, %xmm12 vpternlogq $150, %xmm10, %xmm11, %xmm12 vmovdqa64 %xmm22, %xmm2 vpclmulqdq $1, %xmm8, %xmm2, %xmm10 vpclmulqdq $16, %xmm8, %xmm2, %xmm11 vpternlogq $150, %xmm10, %xmm9, %xmm11 vpclmulqdq $0, %xmm8, %xmm2, %xmm9 vpclmulqdq $0, %xmm0, %xmm5, %xmm10 vpternlogq $150, %xmm9, %xmm7, %xmm10 vpclmulqdq $1, %xmm0, %xmm5, %xmm7 vpclmulqdq $16, %xmm0, %xmm5, %xmm9 vpternlogq $150, %xmm7, %xmm11, %xmm9 vpshufb %xmm17, %xmm18, %xmm7 vpxor %xmm7, %xmm1, %xmm1 vpclmulqdq $17, %xmm8, %xmm2, %xmm7 vpclmulqdq $17, %xmm0, %xmm5, %xmm0 vpternlogq $150, %xmm7, %xmm12, %xmm0 vpclmulqdq $1, %xmm1, %xmm6, %xmm7 vpclmulqdq $16, %xmm1, %xmm6, %xmm8 vpternlogq $150, %xmm7, %xmm9, %xmm8 vpclmulqdq $0, %xmm1, %xmm6, %xmm7 vpslldq $8, %xmm8, %xmm9 vpternlogq $150, %xmm7, %xmm10, %xmm9 vpclmulqdq $17, %xmm1, %xmm6, %xmm7 vmovdqa64 %xmm23, %xmm2 vpclmulqdq $16, %xmm2, %xmm9, %xmm1 vpshufd $78, %xmm9, %xmm9 vpxor %xmm1, %xmm9, %xmm9 vpclmulqdq $16, %xmm2, %xmm9, %xmm1 vpternlogq $150, %xmm7, %xmm0, %xmm1 vpsrldq $8, %xmm8, %xmm0 vpshufd $78, %xmm9, %xmm7 addq $96, %rcx addq $-96, %rdx vpternlogq $150, %xmm0, %xmm7, %xmm1 cmpq $95, %rdx ja .LBB2_19 cmpq $16, %rdx jae .LBB2_13 jmp .LBB2_9 .LBB2_7: movq %r8, %rdx cmpq $16, %rdx jb .LBB2_9 .LBB2_13: vmovdqa 208(%rdi), %xmm0 leaq -16(%rdx), %rsi testb $16, %sil je .LBB2_14 cmpq $16, %rsi jae .LBB2_16 .LBB2_10: testq %rsi, %rsi je .LBB2_3 .LBB2_11: movl $-1, %edx bzhil %esi, %edx, %edx kmovd %edx, %k1 vmovdqu8 (%rcx), %xmm0 {%k1} {z} testq %r10, %r10 je .LBB2_12 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB2_5 vmovdqa 208(%rdi), %xmm2 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm0, %xmm2, %xmm1 vpclmulqdq $1, %xmm0, %xmm2, %xmm3 vpclmulqdq $16, %xmm0, %xmm2, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm2, %xmm0 vpslldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI2_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm4 vpxor %xmm0, %xmm3, %xmm1 vpternlogq $150, %xmm2, %xmm4, %xmm1 jmp .LBB2_22 .LBB2_14: vmovdqu (%rcx), %xmm2 addq $16, %rcx vpshufb .LCPI2_2(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpbroadcastq .LCPI2_3(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm1, %xmm4, %xmm1 vpternlogq $150, %xmm3, %xmm2, %xmm1 movq %rsi, %rdx cmpq $16, %rsi jb .LBB2_10 .LBB2_16: vmovdqa .LCPI2_2(%rip), %xmm2 vpbroadcastq .LCPI2_3(%rip), %xmm3 .p2align 4, 0x90 .LBB2_17: vmovdqu (%rcx), %xmm4 vmovdqu 16(%rcx), %xmm5 vpshufb %xmm2, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm7 vpshufd $78, %xmm4, %xmm4 vpternlogq $150, %xmm1, %xmm6, %xmm7 addq $32, %rcx addq $-32, %rdx vpshufb %xmm2, %xmm5, %xmm1 vpternlogq $150, %xmm4, %xmm7, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm4 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $16, %xmm1, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpclmulqdq $16, %xmm3, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm3, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm1, %xmm6, %xmm1 vpternlogq $150, %xmm5, %xmm4, %xmm1 cmpq $15, %rdx ja .LBB2_17 .LBB2_9: movq %rdx, %rsi testq %rsi, %rsi jne .LBB2_11 .LBB2_3: testq %r10, %r10 je .LBB2_29 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB2_5 .LBB2_22: movq 88(%rsp), %rax vpshufb .LCPI2_0(%rip), %xmm16, %xmm0 vpaddd .LCPI2_1(%rip), %xmm0, %xmm2 cmpq $96, %r10 jb .LBB2_23 vmovdqa64 %xmm16, -128(%rsp) vmovdqa (%rdi), %xmm3 vmovaps 16(%rdi), %xmm0 vmovaps %xmm0, 16(%rsp) vmovaps 32(%rdi), %xmm0 vmovaps %xmm0, (%rsp) vmovaps 48(%rdi), %xmm0 vmovaps %xmm0, -16(%rsp) vmovaps 64(%rdi), %xmm0 vmovaps %xmm0, -32(%rsp) vmovaps 80(%rdi), %xmm0 vmovaps %xmm0, -48(%rsp) vmovaps 96(%rdi), %xmm0 vmovaps %xmm0, -64(%rsp) vmovaps 112(%rdi), %xmm0 vmovaps %xmm0, -80(%rsp) vmovaps 128(%rdi), %xmm0 vmovaps %xmm0, -96(%rsp) vmovdqa 144(%rdi), %xmm0 vmovdqa %xmm0, -112(%rsp) vmovaps 160(%rdi), %xmm30 vmovaps 176(%rdi), %xmm31 vmovaps 192(%rdi), %xmm16 vmovdqa64 208(%rdi), %xmm18 vmovdqa64 224(%rdi), %xmm19 vmovdqa64 240(%rdi), %xmm20 vmovdqa64 256(%rdi), %xmm21 vmovdqa64 .LCPI2_2(%rip), %xmm17 vpxord %xmm24, %xmm24, %xmm24 movq %r10, %rcx vmovdqa64 272(%rdi), %xmm22 vmovapd 288(%rdi), %xmm23 .p2align 4, 0x90 .LBB2_31: vmovdqu64 16(%r9), %xmm25 vmovdqu64 32(%r9), %xmm26 vmovdqu64 48(%r9), %xmm27 vmovdqu64 64(%r9), %xmm28 vmovdqu64 80(%r9), %xmm29 vpshufb %xmm17, %xmm2, %xmm0 vpaddd .LCPI2_1(%rip), %xmm2, %xmm4 vpshufb %xmm17, %xmm4, %xmm4 vpaddd .LCPI2_4(%rip), %xmm2, %xmm5 vpshufb %xmm17, %xmm5, %xmm5 vpaddd .LCPI2_5(%rip), %xmm2, %xmm10 vpshufb %xmm17, %xmm10, %xmm13 vpaddd .LCPI2_6(%rip), %xmm2, %xmm10 vpshufb %xmm17, %xmm10, %xmm14 vpaddd .LCPI2_7(%rip), %xmm2, %xmm10 vpshufb %xmm17, %xmm10, %xmm15 vpshufb %xmm17, %xmm29, %xmm6 vpxor %xmm0, %xmm3, %xmm10 vpxor %xmm4, %xmm3, %xmm11 vpxor %xmm5, %xmm3, %xmm12 vpxor %xmm3, %xmm13, %xmm13 vpxor %xmm3, %xmm14, %xmm14 vpxor %xmm3, %xmm15, %xmm15 vmovaps 16(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm10, %xmm10 vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm12, %xmm12 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 #NO_APP vpxor %xmm4, %xmm4, %xmm4 vpxor %xmm5, %xmm5, %xmm5 vxorps %xmm0, %xmm0, %xmm0 vmovaps (%rsp), %xmm7 vmovdqa64 %xmm18, %xmm8 #APP vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vpclmulqdq $16, %xmm8, %xmm6, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $0, %xmm8, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $17, %xmm8, %xmm6, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $1, %xmm8, %xmm6, %xmm9 vpxor %xmm5, %xmm9, %xmm5 #NO_APP vpshufb %xmm17, %xmm28, %xmm6 vmovaps -16(%rsp), %xmm7 vmovdqa64 %xmm19, %xmm8 #APP vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vpclmulqdq $16, %xmm8, %xmm6, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $0, %xmm8, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $17, %xmm8, %xmm6, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $1, %xmm8, %xmm6, %xmm9 vpxor %xmm5, %xmm9, %xmm5 #NO_APP vpshufb %xmm17, %xmm27, %xmm6 vmovaps -32(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 #NO_APP vmovaps -48(%rsp), %xmm7 vmovdqa64 %xmm20, %xmm8 #APP vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vpclmulqdq $16, %xmm8, %xmm6, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $0, %xmm8, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $17, %xmm8, %xmm6, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $1, %xmm8, %xmm6, %xmm9 vpxor %xmm5, %xmm9, %xmm5 #NO_APP vpshufb %xmm17, %xmm26, %xmm6 vmovaps -64(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 #NO_APP vmovdqa64 %xmm21, %xmm8 vmovaps -80(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vpclmulqdq $16, %xmm8, %xmm6, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $0, %xmm8, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $17, %xmm8, %xmm6, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $1, %xmm8, %xmm6, %xmm9 vpxor %xmm5, %xmm9, %xmm5 #NO_APP vpshufb %xmm17, %xmm25, %xmm6 vmovaps -96(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 #NO_APP vmovdqa64 %xmm22, %xmm8 vmovaps -112(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vpclmulqdq $16, %xmm8, %xmm6, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $0, %xmm8, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $17, %xmm8, %xmm6, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $1, %xmm8, %xmm6, %xmm9 vpxor %xmm5, %xmm9, %xmm5 #NO_APP vmovdqu (%r9), %xmm6 vpshufb %xmm17, %xmm6, %xmm9 vpxor %xmm1, %xmm9, %xmm1 vmovaps %xmm30, %xmm7 vmovapd %xmm23, %xmm8 #APP vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vpclmulqdq $16, %xmm8, %xmm1, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $0, %xmm8, %xmm1, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $17, %xmm8, %xmm1, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $1, %xmm8, %xmm1, %xmm9 vpxor %xmm5, %xmm9, %xmm5 #NO_APP vpunpcklqdq %xmm5, %xmm24, %xmm1 vpunpckhqdq %xmm24, %xmm5, %xmm5 vmovaps %xmm31, %xmm7 #APP vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 #NO_APP vmovaps %xmm16, %xmm7 #APP vaesenclast %xmm7, %xmm10, %xmm10 vaesenclast %xmm7, %xmm11, %xmm11 vaesenclast %xmm7, %xmm12, %xmm12 vaesenclast %xmm7, %xmm13, %xmm13 vaesenclast %xmm7, %xmm14, %xmm14 vaesenclast %xmm7, %xmm15, %xmm15 #NO_APP vpxor %xmm6, %xmm10, %xmm6 vpxorq %xmm25, %xmm11, %xmm9 vpxorq %xmm26, %xmm12, %xmm10 vpxorq %xmm27, %xmm13, %xmm11 vpxorq %xmm28, %xmm14, %xmm12 vpxorq %xmm29, %xmm15, %xmm13 vpxor %xmm1, %xmm4, %xmm1 vpshufd $78, %xmm1, %xmm4 vpbroadcastq .LCPI2_3(%rip), %xmm7 vpclmulqdq $16, %xmm7, %xmm1, %xmm1 vpxor %xmm4, %xmm1, %xmm4 vpxor %xmm5, %xmm0, %xmm1 vmovdqu %xmm6, (%rax) vmovdqu %xmm9, 16(%rax) vmovdqu %xmm10, 32(%rax) vmovdqu %xmm11, 48(%rax) vmovdqu %xmm12, 64(%rax) vmovdqu %xmm13, 80(%rax) vpshufd $78, %xmm4, %xmm0 vpclmulqdq $16, %xmm7, %xmm4, %xmm4 vpternlogq $150, %xmm4, %xmm0, %xmm1 addq $96, %r9 addq $96, %rax addq $-96, %rcx vpaddd .LCPI2_8(%rip), %xmm2, %xmm2 cmpq $95, %rcx ja .LBB2_31 vmovdqa64 -128(%rsp), %xmm16 cmpq $16, %rcx jae .LBB2_33 .LBB2_25: movq %rax, %rdx jmp .LBB2_26 .LBB2_23: movq %r10, %rcx cmpq $16, %rcx jb .LBB2_25 .LBB2_33: vmovdqa 208(%rdi), %xmm0 vmovdqa64 (%rdi), %xmm18 vmovdqa64 16(%rdi), %xmm22 vmovdqa64 32(%rdi), %xmm23 vmovdqa64 48(%rdi), %xmm24 vmovdqa 64(%rdi), %xmm7 vmovdqa 80(%rdi), %xmm8 vmovdqa 96(%rdi), %xmm9 vmovdqa 112(%rdi), %xmm10 vmovdqa 128(%rdi), %xmm11 vmovdqa 144(%rdi), %xmm12 vmovdqa 160(%rdi), %xmm13 vmovdqa 176(%rdi), %xmm14 vmovdqa 192(%rdi), %xmm15 vmovdqa64 .LCPI2_2(%rip), %xmm17 vpbroadcastq .LCPI2_3(%rip), %xmm3 vpmovsxbq .LCPI2_11(%rip), %xmm19 .p2align 4, 0x90 .LBB2_34: vmovdqu64 (%r9), %xmm20 vpshufb %xmm17, %xmm20, %xmm21 vpxorq %xmm21, %xmm1, %xmm1 vpclmulqdq $1, %xmm1, %xmm0, %xmm4 vpclmulqdq $16, %xmm1, %xmm0, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $0, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm4, %xmm21 vpxorq %xmm21, %xmm5, %xmm5 vpshufd $78, %xmm5, %xmm21 vpclmulqdq $16, %xmm3, %xmm5, %xmm5 vpxorq %xmm21, %xmm5, %xmm5 vpshufd $78, %xmm5, %xmm21 vpclmulqdq $16, %xmm3, %xmm5, %xmm5 vpxor %xmm1, %xmm5, %xmm1 vpshufb %xmm17, %xmm2, %xmm5 vpxorq %xmm5, %xmm18, %xmm5 vmovdqa64 %xmm22, %xmm6 vaesenc %xmm6, %xmm5, %xmm5 vmovdqa64 %xmm23, %xmm6 vaesenc %xmm6, %xmm5, %xmm5 vmovdqa64 %xmm24, %xmm6 vaesenc %xmm6, %xmm5, %xmm5 vaesenc %xmm7, %xmm5, %xmm5 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm13, %xmm5, %xmm5 vaesenc %xmm14, %xmm5, %xmm5 vaesenclast %xmm15, %xmm5, %xmm5 vpxorq %xmm20, %xmm5, %xmm5 leaq 16(%rax), %rdx addq $-16, %rcx addq $16, %r9 vpsrldq $8, %xmm4, %xmm4 vpternlogq $150, %xmm4, %xmm21, %xmm1 vpaddd %xmm19, %xmm2, %xmm2 vmovdqu %xmm5, (%rax) movq %rdx, %rax cmpq $15, %rcx ja .LBB2_34 .LBB2_26: testq %rcx, %rcx je .LBB2_29 movl $-1, %eax bzhil %ecx, %eax, %eax kmovd %eax, %k1 vmovdqu8 (%r9), %xmm0 {%k1} {z} vmovdqa .LCPI2_2(%rip), %xmm3 vpshufb %xmm3, %xmm2, %xmm2 vpxor (%rdi), %xmm2, %xmm2 vaesenc 16(%rdi), %xmm2, %xmm2 vaesenc 32(%rdi), %xmm2, %xmm2 vaesenc 48(%rdi), %xmm2, %xmm2 vaesenc 64(%rdi), %xmm2, %xmm2 vaesenc 80(%rdi), %xmm2, %xmm2 vaesenc 96(%rdi), %xmm2, %xmm2 vaesenc 112(%rdi), %xmm2, %xmm2 vaesenc 128(%rdi), %xmm2, %xmm2 vaesenc 144(%rdi), %xmm2, %xmm2 vaesenc 160(%rdi), %xmm2, %xmm2 vaesenc 176(%rdi), %xmm2, %xmm2 vaesenclast 192(%rdi), %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm2 vmovdqu8 %xmm2, (%rdx) {%k1} vpshufb %xmm3, %xmm0, %xmm0 vmovdqa 208(%rdi), %xmm3 jmp .LBB2_28 .LBB2_12: vmovdqa 208(%rdi), %xmm3 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 .LBB2_28: vpxor %xmm0, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm3, %xmm0 vpclmulqdq $1, %xmm1, %xmm3, %xmm2 vpclmulqdq $16, %xmm1, %xmm3, %xmm4 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $17, %xmm1, %xmm3, %xmm1 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsrldq $8, %xmm2, %xmm2 vpbroadcastq .LCPI2_3(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm0, %xmm4 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm1, %xmm3, %xmm1 vpternlogq $150, %xmm2, %xmm0, %xmm1 .LBB2_29: movq 72(%rsp), %rax vmovdqa 208(%rdi), %xmm0 vmovq %r8, %xmm2 vmovq %r10, %xmm3 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpsllq $3, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI2_3(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpxorq (%rdi), %xmm16, %xmm4 vaesenc 16(%rdi), %xmm4, %xmm4 vaesenc 32(%rdi), %xmm4, %xmm4 vaesenc 48(%rdi), %xmm4, %xmm4 vaesenc 64(%rdi), %xmm4, %xmm4 vaesenc 80(%rdi), %xmm4, %xmm4 vaesenc 96(%rdi), %xmm4, %xmm4 vaesenc 112(%rdi), %xmm4, %xmm4 vaesenc 128(%rdi), %xmm4, %xmm4 vaesenc 144(%rdi), %xmm4, %xmm4 vaesenc 160(%rdi), %xmm4, %xmm4 vaesenc 176(%rdi), %xmm4, %xmm4 vaesenclast 192(%rdi), %xmm4, %xmm4 vpshufb .LCPI2_9(%rip), %xmm1, %xmm1 vpxor %xmm0, %xmm2, %xmm0 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpshufb .LCPI2_10(%rip), %xmm3, %xmm2 vpternlogq $150, %xmm0, %xmm1, %xmm2 vpternlogq $150, (%rax), %xmm4, %xmm2 xorl %eax, %eax vptest %xmm2, %xmm2 sete %al .LBB2_5: addq $32, %rsp .cfi_def_cfa_offset 32 popq %rbx .cfi_def_cfa_offset 24 popq %r14 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end2: .size haberdashery_aes192gcm_skylakex_decrypt, .Lfunc_end2-haberdashery_aes192gcm_skylakex_decrypt .cfi_endproc .section .text.haberdashery_aes192gcm_skylakex_is_supported,"ax",@progbits .globl haberdashery_aes192gcm_skylakex_is_supported .p2align 4, 0x90 .type haberdashery_aes192gcm_skylakex_is_supported,@function haberdashery_aes192gcm_skylakex_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $-779157207, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end3: .size haberdashery_aes192gcm_skylakex_is_supported, .Lfunc_end3-haberdashery_aes192gcm_skylakex_is_supported .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
60,931
asm/aes128gcm_broadwell.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI0_1: .zero 8 .quad -4467570830351532032 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_2: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_broadwell_init,"ax",@progbits .globl haberdashery_aes128gcm_broadwell_init .p2align 4, 0x90 .type haberdashery_aes128gcm_broadwell_init,@function haberdashery_aes128gcm_broadwell_init: .cfi_startproc cmpq $16, %rdx jne .LBB0_2 vmovdqu (%rsi), %xmm2 vpslldq $4, %xmm2, %xmm0 vpslldq $8, %xmm2, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm2, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vaeskeygenassist $1, %xmm2, %xmm1 vpshufd $255, %xmm1, %xmm1 vpxor %xmm2, %xmm0, %xmm0 vmovdqa %xmm2, %xmm10 vmovdqa %xmm2, -56(%rsp) vpxor %xmm0, %xmm1, %xmm1 vpslldq $4, %xmm1, %xmm0 vpslldq $8, %xmm1, %xmm2 vaeskeygenassist $2, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpslldq $12, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpshufd $255, %xmm3, %xmm2 vpxor %xmm1, %xmm0, %xmm0 vmovdqa %xmm1, -24(%rsp) vpxor %xmm0, %xmm2, %xmm2 vpslldq $4, %xmm2, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vaeskeygenassist $4, %xmm2, %xmm3 vpslldq $12, %xmm2, %xmm4 vpxor %xmm4, %xmm0, %xmm0 vpshufd $255, %xmm3, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm3 vpslldq $4, %xmm3, %xmm0 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm0, %xmm0 vpslldq $12, %xmm3, %xmm4 vaeskeygenassist $8, %xmm3, %xmm5 vpxor %xmm4, %xmm0, %xmm0 vpshufd $255, %xmm5, %xmm4 vpxor %xmm3, %xmm0, %xmm0 vpxor %xmm0, %xmm4, %xmm4 vpslldq $4, %xmm4, %xmm0 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpslldq $12, %xmm4, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vaeskeygenassist $16, %xmm4, %xmm5 vpshufd $255, %xmm5, %xmm5 vpxor %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm5 vpslldq $4, %xmm5, %xmm0 vpslldq $8, %xmm5, %xmm6 vaeskeygenassist $32, %xmm5, %xmm7 vpxor %xmm6, %xmm0, %xmm0 vpslldq $12, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpshufd $255, %xmm7, %xmm6 vpxor %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpslldq $4, %xmm6, %xmm0 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vaeskeygenassist $64, %xmm6, %xmm7 vpslldq $12, %xmm6, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vpshufd $255, %xmm7, %xmm7 vpxor %xmm6, %xmm0, %xmm0 vpxor %xmm0, %xmm7, %xmm7 vpslldq $4, %xmm7, %xmm0 vpslldq $8, %xmm7, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vpslldq $12, %xmm7, %xmm8 vaeskeygenassist $128, %xmm7, %xmm9 vpxor %xmm0, %xmm8, %xmm0 vpshufd $255, %xmm9, %xmm8 vpxor %xmm7, %xmm0, %xmm0 vpxor %xmm0, %xmm8, %xmm8 vpslldq $4, %xmm8, %xmm0 vpslldq $8, %xmm8, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpslldq $12, %xmm8, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vaeskeygenassist $27, %xmm8, %xmm9 vpshufd $255, %xmm9, %xmm9 vpxor %xmm0, %xmm8, %xmm0 vpxor %xmm0, %xmm9, %xmm9 vpslldq $4, %xmm9, %xmm0 vpslldq $8, %xmm9, %xmm11 vaeskeygenassist $54, %xmm9, %xmm12 vpxor %xmm0, %xmm11, %xmm0 vpslldq $12, %xmm9, %xmm11 vpxor %xmm0, %xmm11, %xmm0 vpshufd $255, %xmm12, %xmm11 vpxor %xmm0, %xmm9, %xmm0 vpxor %xmm0, %xmm11, %xmm11 vmovdqa %xmm11, -40(%rsp) vaesenc %xmm1, %xmm10, %xmm0 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenclast %xmm11, %xmm0, %xmm0 vpshufb .LCPI0_0(%rip), %xmm0, %xmm0 vpsrlq $63, %xmm0, %xmm11 vpaddq %xmm0, %xmm0, %xmm0 vpshufd $78, %xmm11, %xmm12 vpor %xmm0, %xmm12, %xmm0 vpxor %xmm12, %xmm12, %xmm12 vpblendd $12, %xmm11, %xmm12, %xmm11 vpsllq $63, %xmm11, %xmm12 vpxor %xmm0, %xmm12, %xmm0 vpsllq $62, %xmm11, %xmm12 vpsllq $57, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpxor %xmm0, %xmm11, %xmm11 vpclmulqdq $0, %xmm11, %xmm11, %xmm0 vpbroadcastq .LCPI0_2(%rip), %xmm13 vpclmulqdq $16, %xmm13, %xmm0, %xmm12 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm0 vpclmulqdq $16, %xmm13, %xmm0, %xmm12 vpclmulqdq $17, %xmm11, %xmm11, %xmm14 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpclmulqdq $16, %xmm11, %xmm12, %xmm0 vpclmulqdq $1, %xmm11, %xmm12, %xmm14 vpxor %xmm0, %xmm14, %xmm0 vpclmulqdq $0, %xmm11, %xmm12, %xmm14 vpslldq $8, %xmm0, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $16, %xmm13, %xmm14, %xmm15 vpshufd $78, %xmm14, %xmm14 vpxor %xmm14, %xmm15, %xmm14 vpsrldq $8, %xmm0, %xmm0 vpclmulqdq $17, %xmm11, %xmm12, %xmm15 vpxor %xmm0, %xmm15, %xmm0 vpshufd $78, %xmm14, %xmm15 vpxor %xmm0, %xmm15, %xmm0 vpclmulqdq $16, %xmm13, %xmm14, %xmm14 vpxor %xmm0, %xmm14, %xmm14 vpclmulqdq $0, %xmm14, %xmm14, %xmm0 vpclmulqdq $16, %xmm13, %xmm0, %xmm15 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm15, %xmm0 vpclmulqdq $17, %xmm14, %xmm14, %xmm15 vpshufd $78, %xmm0, %xmm10 vpxor %xmm10, %xmm15, %xmm10 vpclmulqdq $16, %xmm13, %xmm0, %xmm0 vpxor %xmm0, %xmm10, %xmm0 vmovdqa %xmm0, -72(%rsp) vpclmulqdq $0, %xmm12, %xmm12, %xmm0 vpclmulqdq $16, %xmm13, %xmm0, %xmm10 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $17, %xmm12, %xmm12, %xmm10 vpshufd $78, %xmm0, %xmm15 vpxor %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm13, %xmm0, %xmm0 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $16, %xmm11, %xmm0, %xmm10 vpclmulqdq $1, %xmm11, %xmm0, %xmm15 vpxor %xmm10, %xmm15, %xmm10 vpclmulqdq $0, %xmm11, %xmm0, %xmm15 vpslldq $8, %xmm10, %xmm1 vpxor %xmm1, %xmm15, %xmm1 vpclmulqdq $16, %xmm13, %xmm1, %xmm15 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm15, %xmm1 vpsrldq $8, %xmm10, %xmm10 vpclmulqdq $17, %xmm11, %xmm0, %xmm15 vpxor %xmm10, %xmm15, %xmm10 vpclmulqdq $16, %xmm13, %xmm1, %xmm13 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm10, %xmm1 vpxor %xmm1, %xmm13, %xmm1 vmovaps -56(%rsp), %xmm10 vmovaps %xmm10, (%rdi) vmovaps -24(%rsp), %xmm10 vmovaps %xmm10, 16(%rdi) vmovdqa %xmm2, 32(%rdi) vmovdqa %xmm3, 48(%rdi) vmovdqa %xmm4, 64(%rdi) vmovdqa %xmm5, 80(%rdi) vmovdqa %xmm6, 96(%rdi) vmovdqa %xmm7, 112(%rdi) vmovdqa %xmm8, 128(%rdi) vmovdqa %xmm9, 144(%rdi) vmovaps -40(%rsp), %xmm2 vmovaps %xmm2, 160(%rdi) vmovdqa %xmm11, 176(%rdi) vmovdqa %xmm12, 192(%rdi) vmovdqa %xmm14, 208(%rdi) vmovdqa %xmm0, 224(%rdi) vmovdqa %xmm1, 240(%rdi) vmovaps -72(%rsp), %xmm0 vmovaps %xmm0, 256(%rdi) .LBB0_2: xorl %eax, %eax cmpq $16, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes128gcm_broadwell_init, .Lfunc_end0-haberdashery_aes128gcm_broadwell_init .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI1_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_1: .long 1 .long 0 .long 0 .long 0 .LCPI1_2: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_3: .zero 8 .quad -4467570830351532032 .LCPI1_4: .long 2 .long 0 .long 0 .long 0 .LCPI1_5: .long 3 .long 0 .long 0 .long 0 .LCPI1_6: .long 4 .long 0 .long 0 .long 0 .LCPI1_7: .long 5 .long 0 .long 0 .long 0 .LCPI1_8: .long 6 .long 0 .long 0 .long 0 .LCPI1_9: .long 7 .long 0 .long 0 .long 0 .LCPI1_10: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_11: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_12: .zero 16 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI1_13: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_broadwell_encrypt,"ax",@progbits .globl haberdashery_aes128gcm_broadwell_encrypt .p2align 4, 0x90 .type haberdashery_aes128gcm_broadwell_encrypt,@function haberdashery_aes128gcm_broadwell_encrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $392, %rsp .cfi_def_cfa_offset 448 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 448(%rsp), %r15 xorl %eax, %eax cmpq 464(%rsp), %r15 jne .LBB1_40 cmpq $16, 480(%rsp) setne %r10b movabsq $2305843009213693950, %r11 cmpq %r11, %r8 seta %r11b orb %r10b, %r11b jne .LBB1_40 movq %r15, %r10 shrq $5, %r10 cmpq $2147483647, %r10 setae %r10b cmpq $12, %rdx setne %dl orb %r10b, %dl jne .LBB1_40 vmovd (%rsi), %xmm0 vpinsrd $1, 4(%rsi), %xmm0, %xmm0 vpinsrd $2, 8(%rsi), %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm0 vmovdqa %xmm0, 64(%rsp) vpxor %xmm13, %xmm13, %xmm13 testq %r8, %r8 je .LBB1_19 cmpq $96, %r8 jb .LBB1_5 vmovdqu (%rcx), %xmm1 vmovdqu 16(%rcx), %xmm2 vmovdqu 32(%rcx), %xmm3 vmovdqu 48(%rcx), %xmm4 vmovdqu 64(%rcx), %xmm5 vmovdqu 80(%rcx), %xmm6 vmovdqa .LCPI1_2(%rip), %xmm0 vpshufb %xmm0, %xmm1, %xmm7 vpshufb %xmm0, %xmm2, %xmm10 vpshufb %xmm0, %xmm3, %xmm8 vpshufb %xmm0, %xmm4, %xmm9 vpshufb %xmm0, %xmm5, %xmm5 vpshufb %xmm0, %xmm6, %xmm6 vmovdqa 176(%rdi), %xmm1 vmovdqa 192(%rdi), %xmm2 vmovdqa 208(%rdi), %xmm3 vmovdqa 224(%rdi), %xmm4 vpclmulqdq $0, %xmm6, %xmm1, %xmm11 vpclmulqdq $1, %xmm6, %xmm1, %xmm12 vpclmulqdq $16, %xmm6, %xmm1, %xmm13 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm6, %xmm1, %xmm6 vpclmulqdq $0, %xmm5, %xmm2, %xmm13 vpxor %xmm11, %xmm13, %xmm11 vpclmulqdq $1, %xmm5, %xmm2, %xmm13 vpclmulqdq $16, %xmm5, %xmm2, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpclmulqdq $17, %xmm5, %xmm2, %xmm5 vpxor %xmm6, %xmm5, %xmm13 vpclmulqdq $0, %xmm9, %xmm3, %xmm5 vpclmulqdq $1, %xmm9, %xmm3, %xmm6 vpclmulqdq $16, %xmm9, %xmm3, %xmm14 vpxor %xmm6, %xmm14, %xmm6 vpclmulqdq $0, %xmm8, %xmm4, %xmm14 vpxor %xmm5, %xmm14, %xmm14 vmovdqa 240(%rdi), %xmm5 vpxor %xmm14, %xmm11, %xmm11 vpclmulqdq $1, %xmm8, %xmm4, %xmm14 vpxor %xmm6, %xmm14, %xmm14 vmovdqa 256(%rdi), %xmm6 vpclmulqdq $17, %xmm9, %xmm3, %xmm9 vpxor %xmm14, %xmm12, %xmm12 vpclmulqdq $16, %xmm8, %xmm4, %xmm14 vpclmulqdq $17, %xmm8, %xmm4, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpxor %xmm8, %xmm13, %xmm13 vpclmulqdq $0, %xmm10, %xmm5, %xmm8 vpclmulqdq $1, %xmm10, %xmm5, %xmm9 vpxor %xmm9, %xmm14, %xmm9 vpclmulqdq $16, %xmm10, %xmm5, %xmm14 vpxor %xmm14, %xmm9, %xmm9 vpclmulqdq $0, %xmm7, %xmm6, %xmm14 vpxor %xmm14, %xmm8, %xmm8 vpxor %xmm8, %xmm11, %xmm8 vpclmulqdq $1, %xmm7, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpxor %xmm9, %xmm12, %xmm9 vpclmulqdq $16, %xmm7, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $17, %xmm10, %xmm5, %xmm10 vpclmulqdq $17, %xmm7, %xmm6, %xmm7 vpxor %xmm7, %xmm10, %xmm7 vpxor %xmm7, %xmm13, %xmm10 addq $96, %rcx leaq -96(%r8), %rsi cmpq $96, %rsi jb .LBB1_18 .p2align 4, 0x90 .LBB1_17: vmovdqu (%rcx), %xmm11 vmovdqu 32(%rcx), %xmm12 vmovdqu 48(%rcx), %xmm13 vmovdqu 64(%rcx), %xmm14 vmovdqu 80(%rcx), %xmm15 vpslldq $8, %xmm9, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpsrldq $8, %xmm9, %xmm8 vpxor %xmm8, %xmm10, %xmm8 vpbroadcastq .LCPI1_13(%rip), %xmm10 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpshufb %xmm0, %xmm11, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor %xmm7, %xmm9, %xmm10 vpshufb %xmm0, %xmm12, %xmm8 vpshufb %xmm0, %xmm13, %xmm7 vpshufb %xmm0, %xmm14, %xmm9 vpshufb %xmm0, %xmm15, %xmm11 vpclmulqdq $0, %xmm11, %xmm1, %xmm12 vpclmulqdq $1, %xmm11, %xmm1, %xmm13 vpclmulqdq $16, %xmm11, %xmm1, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $17, %xmm11, %xmm1, %xmm11 vpclmulqdq $0, %xmm9, %xmm2, %xmm14 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $1, %xmm9, %xmm2, %xmm14 vpclmulqdq $16, %xmm9, %xmm2, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpclmulqdq $17, %xmm9, %xmm2, %xmm9 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $0, %xmm7, %xmm3, %xmm11 vpclmulqdq $1, %xmm7, %xmm3, %xmm14 vpclmulqdq $16, %xmm7, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $0, %xmm8, %xmm4, %xmm15 vpxor %xmm15, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $1, %xmm8, %xmm4, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $17, %xmm7, %xmm3, %xmm7 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm8, %xmm4, %xmm13 vpxor %xmm7, %xmm13, %xmm7 vmovdqu 16(%rcx), %xmm13 vpshufb %xmm0, %xmm13, %xmm13 vpclmulqdq $16, %xmm8, %xmm4, %xmm8 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm13, %xmm5, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $1, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $16, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpxor %xmm8, %xmm12, %xmm11 vpclmulqdq $17, %xmm13, %xmm5, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm10, %xmm6, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $1, %xmm10, %xmm6, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $16, %xmm10, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $17, %xmm10, %xmm6, %xmm10 vpxor %xmm7, %xmm10, %xmm10 addq $96, %rcx addq $-96, %rsi cmpq $95, %rsi ja .LBB1_17 .LBB1_18: vpslldq $8, %xmm9, %xmm0 vpxor %xmm0, %xmm8, %xmm0 vpsrldq $8, %xmm9, %xmm1 vpxor %xmm1, %xmm10, %xmm1 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm13 cmpq $16, %rsi jae .LBB1_7 jmp .LBB1_12 .LBB1_19: testq %r15, %r15 jne .LBB1_24 jmp .LBB1_39 .LBB1_5: movq %r8, %rsi cmpq $16, %rsi jb .LBB1_12 .LBB1_7: vmovdqa 176(%rdi), %xmm0 leaq -16(%rsi), %rdx testb $16, %dl je .LBB1_8 cmpq $16, %rdx jae .LBB1_10 .LBB1_13: testq %rdx, %rdx je .LBB1_20 .LBB1_14: vmovdqa %xmm13, 16(%rsp) movq %r9, %r14 movq %r8, %rbx movq %rdi, %r12 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rdi movq %rcx, %rsi callq *memcpy@GOTPCREL(%rip) vmovdqa (%rsp), %xmm0 testq %r15, %r15 je .LBB1_15 movabsq $-68719476704, %rax leaq (%r15,%rax), %rcx incq %rax cmpq %rax, %rcx movl $0, %eax vmovdqa 16(%rsp), %xmm2 jb .LBB1_40 movq %r12, %rdi movq %rbx, %r8 movq %r14, %r9 vmovdqa 176(%r12), %xmm1 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm13 jmp .LBB1_24 .LBB1_8: vmovdqu (%rcx), %xmm1 vpshufb .LCPI1_2(%rip), %xmm1, %xmm1 addq $16, %rcx vpxor %xmm1, %xmm13, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpbroadcastq .LCPI1_13(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm3, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm13 movq %rdx, %rsi cmpq $16, %rdx jb .LBB1_13 .LBB1_10: vmovdqa .LCPI1_2(%rip), %xmm1 vpbroadcastq .LCPI1_13(%rip), %xmm2 .p2align 4, 0x90 .LBB1_11: vmovdqu (%rcx), %xmm3 vmovdqu 16(%rcx), %xmm4 vpshufb %xmm1, %xmm3, %xmm3 vpxor %xmm3, %xmm13, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpclmulqdq $1, %xmm3, %xmm0, %xmm6 vpclmulqdq $16, %xmm3, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $16, %xmm2, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 addq $32, %rcx addq $-32, %rsi vpshufb %xmm1, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm6, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm4 vpclmulqdq $1, %xmm3, %xmm0, %xmm5 vpclmulqdq $16, %xmm3, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm13 cmpq $15, %rsi ja .LBB1_11 .LBB1_12: movq %rsi, %rdx testq %rdx, %rdx jne .LBB1_14 .LBB1_20: testq %r15, %r15 je .LBB1_39 movabsq $-68719476704, %rcx leaq (%r15,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB1_40 .LBB1_24: vmovdqa 64(%rsp), %xmm0 vpshufb .LCPI1_0(%rip), %xmm0, %xmm1 movq 456(%rsp), %rdx vpaddd .LCPI1_1(%rip), %xmm1, %xmm15 cmpq $96, %r15 jb .LBB1_25 leaq 96(%r9), %rax leaq 96(%rdx), %rcx vmovdqa .LCPI1_2(%rip), %xmm12 vpshufb %xmm12, %xmm15, %xmm2 vpaddd .LCPI1_4(%rip), %xmm1, %xmm3 vpshufb %xmm12, %xmm3, %xmm3 vpaddd .LCPI1_5(%rip), %xmm1, %xmm4 vpshufb %xmm12, %xmm4, %xmm4 vpaddd .LCPI1_6(%rip), %xmm1, %xmm5 vpaddd .LCPI1_7(%rip), %xmm1, %xmm6 vpshufb %xmm12, %xmm5, %xmm5 vpshufb %xmm12, %xmm6, %xmm6 vpaddd .LCPI1_8(%rip), %xmm1, %xmm7 vpshufb %xmm12, %xmm7, %xmm7 vpaddd .LCPI1_9(%rip), %xmm1, %xmm15 vmovdqa (%rdi), %xmm0 vmovdqa 16(%rdi), %xmm1 vmovdqa 32(%rdi), %xmm14 vmovaps 48(%rdi), %xmm8 vpxor %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm0, %xmm3 vpxor %xmm4, %xmm0, %xmm4 vpxor %xmm5, %xmm0, %xmm5 vpxor %xmm6, %xmm0, %xmm6 vpxor %xmm7, %xmm0, %xmm9 vmovaps %xmm8, %xmm7 vmovdqa %xmm1, 224(%rsp) #APP vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm4, %xmm4 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm6, %xmm6 vaesenc %xmm1, %xmm9, %xmm9 #NO_APP #APP vaesenc %xmm14, %xmm2, %xmm2 vaesenc %xmm14, %xmm3, %xmm3 vaesenc %xmm14, %xmm4, %xmm4 vaesenc %xmm14, %xmm5, %xmm5 vaesenc %xmm14, %xmm6, %xmm6 vaesenc %xmm14, %xmm9, %xmm9 #NO_APP #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 vaesenc %xmm8, %xmm9, %xmm9 #NO_APP vmovaps 64(%rdi), %xmm8 vmovaps %xmm8, 320(%rsp) #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 vaesenc %xmm8, %xmm9, %xmm9 #NO_APP vmovaps 80(%rdi), %xmm8 vmovaps %xmm8, 304(%rsp) #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 vaesenc %xmm8, %xmm9, %xmm9 #NO_APP vmovaps 96(%rdi), %xmm8 vmovaps %xmm8, 288(%rsp) #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 vaesenc %xmm8, %xmm9, %xmm9 #NO_APP vmovaps 112(%rdi), %xmm8 vmovaps %xmm8, 272(%rsp) #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 vaesenc %xmm8, %xmm9, %xmm9 #NO_APP vmovaps 128(%rdi), %xmm8 vmovaps %xmm8, 256(%rsp) #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 vaesenc %xmm8, %xmm9, %xmm9 #NO_APP vmovaps 144(%rdi), %xmm8 vmovaps %xmm8, 240(%rsp) #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 vaesenc %xmm8, %xmm9, %xmm9 #NO_APP vmovdqa 160(%rdi), %xmm8 #APP vaesenclast %xmm8, %xmm2, %xmm2 vaesenclast %xmm8, %xmm3, %xmm3 vaesenclast %xmm8, %xmm4, %xmm4 vaesenclast %xmm8, %xmm5, %xmm5 vaesenclast %xmm8, %xmm6, %xmm6 vaesenclast %xmm8, %xmm9, %xmm9 #NO_APP vpxor (%r9), %xmm2, %xmm11 vpxor 16(%r9), %xmm3, %xmm2 vpxor 32(%r9), %xmm4, %xmm4 vpxor 48(%r9), %xmm5, %xmm5 vpxor 64(%r9), %xmm6, %xmm6 vpxor 80(%r9), %xmm9, %xmm10 vmovdqu %xmm11, (%rdx) vmovdqu %xmm2, 16(%rdx) vmovdqu %xmm4, 32(%rdx) vmovdqu %xmm5, 48(%rdx) vmovdqu %xmm6, 64(%rdx) leaq -96(%r15), %rbx vmovdqu %xmm10, 80(%rdx) cmpq $96, %rbx jb .LBB1_34 vmovdqa %xmm8, %xmm1 vmovaps 176(%rdi), %xmm3 vmovaps %xmm3, 208(%rsp) vmovaps 192(%rdi), %xmm3 vmovaps %xmm3, 192(%rsp) vmovaps 208(%rdi), %xmm3 vmovaps %xmm3, 176(%rsp) vmovaps 224(%rdi), %xmm3 vmovaps %xmm3, 160(%rsp) vmovaps 240(%rdi), %xmm3 vmovaps %xmm3, 144(%rsp) vmovdqa 256(%rdi), %xmm3 vmovdqa %xmm3, 128(%rsp) vmovaps %xmm7, 112(%rsp) vmovdqa %xmm0, %xmm8 vmovdqa %xmm14, 96(%rsp) vmovdqa %xmm1, 80(%rsp) .p2align 4, 0x90 .LBB1_33: vmovdqa %xmm5, 336(%rsp) vmovdqa %xmm2, 352(%rsp) vmovdqa %xmm4, 48(%rsp) vmovdqa %xmm15, 32(%rsp) vpshufb %xmm12, %xmm15, %xmm3 vpaddd .LCPI1_1(%rip), %xmm15, %xmm4 vpshufb %xmm12, %xmm4, %xmm5 vpaddd .LCPI1_4(%rip), %xmm15, %xmm4 vmovdqa %xmm6, %xmm7 vpshufb %xmm12, %xmm4, %xmm6 vpaddd .LCPI1_5(%rip), %xmm15, %xmm4 vpshufb %xmm12, %xmm4, %xmm9 vpaddd .LCPI1_6(%rip), %xmm15, %xmm4 vpshufb %xmm12, %xmm4, %xmm0 vpaddd .LCPI1_7(%rip), %xmm15, %xmm4 vpshufb %xmm12, %xmm4, %xmm1 vpshufb %xmm12, %xmm11, %xmm4 vpxor %xmm4, %xmm13, %xmm4 vmovdqa %xmm4, 16(%rsp) vpshufb %xmm12, %xmm10, %xmm2 vpxor %xmm3, %xmm8, %xmm11 vpxor %xmm5, %xmm8, %xmm13 vpxor %xmm6, %xmm8, %xmm14 vpxor %xmm9, %xmm8, %xmm15 vpxor %xmm0, %xmm8, %xmm3 vpxor %xmm1, %xmm8, %xmm10 vmovaps 224(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm10, %xmm10 #NO_APP vpxor %xmm5, %xmm5, %xmm5 vpxor %xmm6, %xmm6, %xmm6 vpxor %xmm9, %xmm9, %xmm9 vmovaps 208(%rsp), %xmm1 vmovaps 96(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm10, %xmm10 vpclmulqdq $16, %xmm1, %xmm2, %xmm0 vpxor %xmm0, %xmm5, %xmm5 vpclmulqdq $0, %xmm1, %xmm2, %xmm0 vpxor %xmm0, %xmm9, %xmm9 vpclmulqdq $17, %xmm1, %xmm2, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpclmulqdq $1, %xmm1, %xmm2, %xmm0 vpxor %xmm0, %xmm5, %xmm5 #NO_APP vpshufb %xmm12, %xmm7, %xmm0 vmovaps 192(%rsp), %xmm2 vmovaps 112(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm10, %xmm10 vpclmulqdq $16, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm5, %xmm5 vpclmulqdq $0, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm9, %xmm9 vpclmulqdq $17, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm5, %xmm5 #NO_APP vmovdqa 336(%rsp), %xmm0 vpshufb %xmm12, %xmm0, %xmm0 vmovaps 176(%rsp), %xmm2 vmovaps 320(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm10, %xmm10 vpclmulqdq $16, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm5, %xmm5 vpclmulqdq $0, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm9, %xmm9 vpclmulqdq $17, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm5, %xmm5 #NO_APP vmovdqa 48(%rsp), %xmm0 vpshufb %xmm12, %xmm0, %xmm0 vmovaps 160(%rsp), %xmm2 vmovaps 304(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm10, %xmm10 vpclmulqdq $16, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm5, %xmm5 vpclmulqdq $0, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm9, %xmm9 vpclmulqdq $17, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm5, %xmm5 #NO_APP vmovdqa 352(%rsp), %xmm0 vpshufb %xmm12, %xmm0, %xmm0 vmovaps 144(%rsp), %xmm2 vmovaps 288(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm11, %xmm11 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm10, %xmm10 vpclmulqdq $16, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm5, %xmm5 vpclmulqdq $0, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm9, %xmm9 vpclmulqdq $17, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor %xmm1, %xmm5, %xmm5 #NO_APP vmovaps 272(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm10, %xmm10 #NO_APP vmovdqa 128(%rsp), %xmm1 vmovaps 256(%rsp), %xmm2 vmovaps 16(%rsp), %xmm4 #APP vaesenc %xmm2, %xmm11, %xmm11 vaesenc %xmm2, %xmm13, %xmm13 vaesenc %xmm2, %xmm14, %xmm14 vaesenc %xmm2, %xmm15, %xmm15 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm10, %xmm10 vpclmulqdq $16, %xmm1, %xmm4, %xmm0 vpxor %xmm0, %xmm5, %xmm5 vpclmulqdq $0, %xmm1, %xmm4, %xmm0 vpxor %xmm0, %xmm9, %xmm9 vpclmulqdq $17, %xmm1, %xmm4, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpclmulqdq $1, %xmm1, %xmm4, %xmm0 vpxor %xmm0, %xmm5, %xmm5 #NO_APP vpxor %xmm1, %xmm1, %xmm1 vpunpcklqdq %xmm5, %xmm1, %xmm0 vpxor %xmm0, %xmm9, %xmm0 vpunpckhqdq %xmm1, %xmm5, %xmm1 vpxor %xmm1, %xmm6, %xmm1 vpbroadcastq .LCPI1_13(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpshufd $78, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vmovaps 240(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm10, %xmm10 #NO_APP vmovdqa 80(%rsp), %xmm1 #APP vaesenclast %xmm1, %xmm11, %xmm11 vaesenclast %xmm1, %xmm13, %xmm13 vaesenclast %xmm1, %xmm14, %xmm14 vaesenclast %xmm1, %xmm15, %xmm15 vaesenclast %xmm1, %xmm3, %xmm3 vaesenclast %xmm1, %xmm10, %xmm10 #NO_APP vpxor (%rax), %xmm11, %xmm11 vpxor 16(%rax), %xmm13, %xmm2 vmovdqa %xmm0, %xmm13 vpxor 32(%rax), %xmm14, %xmm4 vpxor 48(%rax), %xmm15, %xmm5 vmovdqa 32(%rsp), %xmm15 vpxor 64(%rax), %xmm3, %xmm6 vpxor 80(%rax), %xmm10, %xmm10 addq $96, %rax vmovdqu %xmm11, (%rcx) vmovdqu %xmm2, 16(%rcx) vmovdqu %xmm4, 32(%rcx) vmovdqu %xmm5, 48(%rcx) vmovdqu %xmm6, 64(%rcx) vmovdqu %xmm10, 80(%rcx) addq $96, %rcx addq $-96, %rbx vpaddd .LCPI1_8(%rip), %xmm15, %xmm15 cmpq $95, %rbx ja .LBB1_33 .LBB1_34: vpshufb %xmm12, %xmm11, %xmm1 vpxor %xmm1, %xmm13, %xmm1 vpshufb %xmm12, %xmm2, %xmm3 vpshufb %xmm12, %xmm4, %xmm4 vpshufb %xmm12, %xmm5, %xmm5 vpshufb %xmm12, %xmm6, %xmm6 vpshufb %xmm12, %xmm10, %xmm7 vmovdqa 176(%rdi), %xmm8 vmovdqa 192(%rdi), %xmm9 vmovdqa 208(%rdi), %xmm10 vmovdqa 224(%rdi), %xmm11 vmovdqa 240(%rdi), %xmm2 vmovdqa 256(%rdi), %xmm0 vpclmulqdq $0, %xmm7, %xmm8, %xmm12 vpclmulqdq $1, %xmm7, %xmm8, %xmm13 vpclmulqdq $16, %xmm7, %xmm8, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $17, %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm6, %xmm9, %xmm8 vpxor %xmm12, %xmm8, %xmm8 vpclmulqdq $1, %xmm6, %xmm9, %xmm12 vpclmulqdq $16, %xmm6, %xmm9, %xmm14 vpxor %xmm14, %xmm12, %xmm12 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm6, %xmm9, %xmm6 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm10, %xmm7 vpclmulqdq $1, %xmm5, %xmm10, %xmm9 vpclmulqdq $16, %xmm5, %xmm10, %xmm13 vpxor %xmm13, %xmm9, %xmm9 vpclmulqdq $17, %xmm5, %xmm10, %xmm5 vpclmulqdq $0, %xmm4, %xmm11, %xmm10 vpxor %xmm7, %xmm10, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $1, %xmm4, %xmm11, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpxor %xmm8, %xmm12, %xmm8 vpclmulqdq $16, %xmm4, %xmm11, %xmm9 vpclmulqdq $17, %xmm4, %xmm11, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $0, %xmm3, %xmm2, %xmm5 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $1, %xmm3, %xmm2, %xmm6 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $16, %xmm3, %xmm2, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm3, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $0, %xmm1, %xmm0, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $1, %xmm1, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm1, %xmm0, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpslldq $8, %xmm4, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpsrldq $8, %xmm4, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm2, %xmm0, %xmm13 movq %rcx, %rdx movq %rax, %r9 cmpq $16, %rbx jae .LBB1_35 .LBB1_27: movq %rdx, %r14 movq %r9, %rsi jmp .LBB1_28 .LBB1_25: movq %r15, %rbx cmpq $16, %rbx jb .LBB1_27 .LBB1_35: vmovaps (%rdi), %xmm0 vmovaps %xmm0, 32(%rsp) vmovaps 16(%rdi), %xmm0 vmovaps %xmm0, 16(%rsp) vmovdqa 32(%rdi), %xmm0 vmovdqa %xmm0, 48(%rsp) vmovdqa 48(%rdi), %xmm3 vmovdqa 64(%rdi), %xmm4 vmovdqa 80(%rdi), %xmm5 vmovdqa 96(%rdi), %xmm6 vmovdqa 112(%rdi), %xmm7 vmovdqa 128(%rdi), %xmm8 vmovdqa 144(%rdi), %xmm9 vmovdqa 160(%rdi), %xmm10 vmovdqa 176(%rdi), %xmm11 vmovdqa .LCPI1_2(%rip), %xmm12 vpbroadcastq .LCPI1_13(%rip), %xmm14 .p2align 4, 0x90 .LBB1_36: vmovdqa %xmm15, %xmm2 vpshufb %xmm12, %xmm15, %xmm15 vpxor 32(%rsp), %xmm15, %xmm15 vaesenc 16(%rsp), %xmm15, %xmm15 vaesenc 48(%rsp), %xmm15, %xmm15 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm5, %xmm15, %xmm15 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm9, %xmm15, %xmm15 vaesenclast %xmm10, %xmm15, %xmm15 vpxor (%r9), %xmm15, %xmm15 vmovdqu %xmm15, (%rdx) vpshufb %xmm12, %xmm15, %xmm15 vpxor %xmm15, %xmm13, %xmm15 vpclmulqdq $0, %xmm15, %xmm11, %xmm13 vpclmulqdq $1, %xmm15, %xmm11, %xmm0 vpclmulqdq $16, %xmm15, %xmm11, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm0, %xmm1 vpxor %xmm1, %xmm13, %xmm1 vpclmulqdq $17, %xmm15, %xmm11, %xmm13 vpsrldq $8, %xmm0, %xmm0 vpxor %xmm0, %xmm13, %xmm0 vpclmulqdq $16, %xmm14, %xmm1, %xmm13 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm1 vpshufd $78, %xmm1, %xmm13 vpxor %xmm0, %xmm13, %xmm0 vpclmulqdq $16, %xmm14, %xmm1, %xmm1 vpxor %xmm0, %xmm1, %xmm13 leaq 16(%r9), %rsi leaq 16(%rdx), %r14 addq $-16, %rbx vpaddd .LCPI1_1(%rip), %xmm2, %xmm15 movq %r14, %rdx movq %rsi, %r9 cmpq $15, %rbx ja .LBB1_36 .LBB1_28: testq %rbx, %rbx je .LBB1_39 vmovdqa %xmm13, 16(%rsp) movq %r8, 48(%rsp) vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) movq %rsp, %rax movq memcpy@GOTPCREL(%rip), %rbp movq %rdi, %r13 movq %rax, %rdi movq %rbx, %rdx vmovdqa %xmm15, 32(%rsp) callq *%rbp vmovdqa 32(%rsp), %xmm0 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor (%r13), %xmm0, %xmm0 vaesenc 16(%r13), %xmm0, %xmm0 vaesenc 32(%r13), %xmm0, %xmm0 vaesenc 48(%r13), %xmm0, %xmm0 vaesenc 64(%r13), %xmm0, %xmm0 vaesenc 80(%r13), %xmm0, %xmm0 vaesenc 96(%r13), %xmm0, %xmm0 vaesenc 112(%r13), %xmm0, %xmm0 vaesenc 128(%r13), %xmm0, %xmm0 vaesenc 144(%r13), %xmm0, %xmm0 movq %r13, %r12 vaesenclast 160(%r13), %xmm0, %xmm0 vpxor (%rsp), %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) vmovdqa %xmm0, (%rsp) movq %rsp, %rsi movq %r14, %rdi movq %rbx, %rdx callq *%rbp testq %r15, %r15 je .LBB1_30 vmovaps 32(%rsp), %xmm0 vmovaps %xmm0, 368(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, (%rsp) movq %rsp, %rdi leaq 368(%rsp), %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) vmovdqa (%rsp), %xmm0 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 movq %r12, %rdi vmovdqa 176(%r12), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 jmp .LBB1_38 .LBB1_15: movq %r12, %rdi vmovdqa 176(%r12), %xmm1 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm13 movq %rbx, %r8 jmp .LBB1_39 .LBB1_30: movq %r12, %rdi vmovdqa 176(%r12), %xmm0 vmovdqa 32(%rsp), %xmm1 vpshufb .LCPI1_2(%rip), %xmm1, %xmm1 vpxor 16(%rsp), %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 .LBB1_38: vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm13 movq 48(%rsp), %r8 .LBB1_39: movq 472(%rsp), %rax vmovdqa 176(%rdi), %xmm0 vmovq %r8, %xmm1 vmovq %r15, %xmm2 vpunpcklqdq %xmm1, %xmm2, %xmm1 vpsllq $3, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vmovdqa 64(%rsp), %xmm2 vpxor (%rdi), %xmm2, %xmm2 vaesenc 16(%rdi), %xmm2, %xmm2 vaesenc 32(%rdi), %xmm2, %xmm2 vaesenc 48(%rdi), %xmm2, %xmm2 vaesenc 64(%rdi), %xmm2, %xmm2 vaesenc 80(%rdi), %xmm2, %xmm2 vaesenc 96(%rdi), %xmm2, %xmm2 vaesenc 112(%rdi), %xmm2, %xmm2 vaesenc 128(%rdi), %xmm2, %xmm2 vaesenc 144(%rdi), %xmm2, %xmm2 vaesenclast 160(%rdi), %xmm2, %xmm2 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpshufb .LCPI1_10(%rip), %xmm3, %xmm3 vpshufb .LCPI1_11(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqu %xmm0, (%rax) movl $1, %eax .LBB1_40: addq $392, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end1: .size haberdashery_aes128gcm_broadwell_encrypt, .Lfunc_end1-haberdashery_aes128gcm_broadwell_encrypt .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_1: .long 1 .long 0 .long 0 .long 0 .LCPI2_2: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_3: .zero 8 .quad -4467570830351532032 .LCPI2_4: .long 2 .long 0 .long 0 .long 0 .LCPI2_5: .long 3 .long 0 .long 0 .long 0 .LCPI2_6: .long 4 .long 0 .long 0 .long 0 .LCPI2_7: .long 5 .long 0 .long 0 .long 0 .LCPI2_8: .long 6 .long 0 .long 0 .long 0 .LCPI2_9: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI2_10: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI2_11: .quad -4467570830351532032 .section .text.haberdashery_aes128gcm_broadwell_decrypt,"ax",@progbits .globl haberdashery_aes128gcm_broadwell_decrypt .p2align 4, 0x90 .type haberdashery_aes128gcm_broadwell_decrypt,@function haberdashery_aes128gcm_broadwell_decrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $440, %rsp .cfi_def_cfa_offset 496 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 496(%rsp), %r15 xorl %eax, %eax cmpq 528(%rsp), %r15 jne .LBB2_38 cmpq $16, 512(%rsp) setne %r10b movabsq $2305843009213693950, %r11 cmpq %r11, %r8 seta %r11b movq %r15, %rbx shrq $5, %rbx cmpq $2147483647, %rbx setae %bl orb %r10b, %r11b orb %bl, %r11b cmpq $12, %rdx setne %dl orb %r11b, %dl jne .LBB2_38 movq 504(%rsp), %r12 vmovd (%rsi), %xmm0 vpinsrd $1, 4(%rsi), %xmm0, %xmm0 vpinsrd $2, 8(%rsi), %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm0 vmovdqa %xmm0, 80(%rsp) vpxor %xmm7, %xmm7, %xmm7 testq %r8, %r8 je .LBB2_3 cmpq $96, %r8 jb .LBB2_6 vmovdqu (%rcx), %xmm1 vmovdqu 16(%rcx), %xmm2 vmovdqu 32(%rcx), %xmm3 vmovdqu 48(%rcx), %xmm4 vmovdqu 64(%rcx), %xmm5 vmovdqu 80(%rcx), %xmm6 vmovdqa .LCPI2_2(%rip), %xmm0 vpshufb %xmm0, %xmm1, %xmm7 vpshufb %xmm0, %xmm2, %xmm10 vpshufb %xmm0, %xmm3, %xmm8 vpshufb %xmm0, %xmm4, %xmm9 vpshufb %xmm0, %xmm5, %xmm5 vpshufb %xmm0, %xmm6, %xmm6 vmovdqa 176(%rdi), %xmm1 vmovdqa 192(%rdi), %xmm2 vmovdqa 208(%rdi), %xmm3 vmovdqa 224(%rdi), %xmm4 vpclmulqdq $0, %xmm6, %xmm1, %xmm11 vpclmulqdq $1, %xmm6, %xmm1, %xmm12 vpclmulqdq $16, %xmm6, %xmm1, %xmm13 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm6, %xmm1, %xmm6 vpclmulqdq $0, %xmm5, %xmm2, %xmm13 vpxor %xmm11, %xmm13, %xmm11 vpclmulqdq $1, %xmm5, %xmm2, %xmm13 vpclmulqdq $16, %xmm5, %xmm2, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpclmulqdq $17, %xmm5, %xmm2, %xmm5 vpxor %xmm6, %xmm5, %xmm13 vpclmulqdq $0, %xmm9, %xmm3, %xmm5 vpclmulqdq $1, %xmm9, %xmm3, %xmm6 vpclmulqdq $16, %xmm9, %xmm3, %xmm14 vpxor %xmm6, %xmm14, %xmm6 vpclmulqdq $0, %xmm8, %xmm4, %xmm14 vpxor %xmm5, %xmm14, %xmm14 vmovdqa 240(%rdi), %xmm5 vpxor %xmm14, %xmm11, %xmm11 vpclmulqdq $1, %xmm8, %xmm4, %xmm14 vpxor %xmm6, %xmm14, %xmm14 vmovdqa 256(%rdi), %xmm6 vpclmulqdq $17, %xmm9, %xmm3, %xmm9 vpxor %xmm14, %xmm12, %xmm12 vpclmulqdq $16, %xmm8, %xmm4, %xmm14 vpclmulqdq $17, %xmm8, %xmm4, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpxor %xmm8, %xmm13, %xmm13 vpclmulqdq $0, %xmm10, %xmm5, %xmm8 vpclmulqdq $1, %xmm10, %xmm5, %xmm9 vpxor %xmm9, %xmm14, %xmm9 vpclmulqdq $16, %xmm10, %xmm5, %xmm14 vpxor %xmm14, %xmm9, %xmm9 vpclmulqdq $0, %xmm7, %xmm6, %xmm14 vpxor %xmm14, %xmm8, %xmm8 vpxor %xmm8, %xmm11, %xmm8 vpclmulqdq $1, %xmm7, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpxor %xmm9, %xmm12, %xmm9 vpclmulqdq $16, %xmm7, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $17, %xmm10, %xmm5, %xmm10 vpclmulqdq $17, %xmm7, %xmm6, %xmm7 vpxor %xmm7, %xmm10, %xmm7 vpxor %xmm7, %xmm13, %xmm10 addq $96, %rcx leaq -96(%r8), %rsi cmpq $96, %rsi jb .LBB2_15 .p2align 4, 0x90 .LBB2_14: vmovdqu (%rcx), %xmm11 vmovdqu 32(%rcx), %xmm12 vmovdqu 48(%rcx), %xmm13 vmovdqu 64(%rcx), %xmm14 vmovdqu 80(%rcx), %xmm15 vpslldq $8, %xmm9, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpsrldq $8, %xmm9, %xmm8 vpxor %xmm8, %xmm10, %xmm8 vpbroadcastq .LCPI2_11(%rip), %xmm10 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $16, %xmm10, %xmm7, %xmm9 vpshufd $78, %xmm7, %xmm7 vpshufb %xmm0, %xmm11, %xmm10 vpxor %xmm10, %xmm8, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor %xmm7, %xmm9, %xmm10 vpshufb %xmm0, %xmm12, %xmm8 vpshufb %xmm0, %xmm13, %xmm7 vpshufb %xmm0, %xmm14, %xmm9 vpshufb %xmm0, %xmm15, %xmm11 vpclmulqdq $0, %xmm11, %xmm1, %xmm12 vpclmulqdq $1, %xmm11, %xmm1, %xmm13 vpclmulqdq $16, %xmm11, %xmm1, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $17, %xmm11, %xmm1, %xmm11 vpclmulqdq $0, %xmm9, %xmm2, %xmm14 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $1, %xmm9, %xmm2, %xmm14 vpclmulqdq $16, %xmm9, %xmm2, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpclmulqdq $17, %xmm9, %xmm2, %xmm9 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $0, %xmm7, %xmm3, %xmm11 vpclmulqdq $1, %xmm7, %xmm3, %xmm14 vpclmulqdq $16, %xmm7, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $0, %xmm8, %xmm4, %xmm15 vpxor %xmm15, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $1, %xmm8, %xmm4, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $17, %xmm7, %xmm3, %xmm7 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $17, %xmm8, %xmm4, %xmm13 vpxor %xmm7, %xmm13, %xmm7 vmovdqu 16(%rcx), %xmm13 vpshufb %xmm0, %xmm13, %xmm13 vpclmulqdq $16, %xmm8, %xmm4, %xmm8 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm13, %xmm5, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $1, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $16, %xmm13, %xmm5, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpxor %xmm8, %xmm12, %xmm11 vpclmulqdq $17, %xmm13, %xmm5, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $0, %xmm10, %xmm6, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $1, %xmm10, %xmm6, %xmm9 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $16, %xmm10, %xmm6, %xmm11 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $17, %xmm10, %xmm6, %xmm10 vpxor %xmm7, %xmm10, %xmm10 addq $96, %rcx addq $-96, %rsi cmpq $95, %rsi ja .LBB2_14 .LBB2_15: vpslldq $8, %xmm9, %xmm0 vpxor %xmm0, %xmm8, %xmm0 vpsrldq $8, %xmm9, %xmm1 vpxor %xmm1, %xmm10, %xmm1 vpbroadcastq .LCPI2_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm2, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm7 cmpq $16, %rsi jae .LBB2_16 jmp .LBB2_8 .LBB2_6: movq %r8, %rsi cmpq $16, %rsi jb .LBB2_8 .LBB2_16: vmovdqa 176(%rdi), %xmm0 leaq -16(%rsi), %rdx testb $16, %dl je .LBB2_17 cmpq $16, %rdx jae .LBB2_19 .LBB2_9: testq %rdx, %rdx je .LBB2_3 .LBB2_10: vmovdqa %xmm7, 16(%rsp) movq %r9, %r14 movq %r8, %rbx movq %rdi, %r13 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) leaq 32(%rsp), %rdi movq %rcx, %rsi callq *memcpy@GOTPCREL(%rip) vmovdqa 32(%rsp), %xmm0 testq %r15, %r15 je .LBB2_11 movabsq $-68719476704, %rax leaq (%r15,%rax), %rcx incq %rax cmpq %rax, %rcx movl $0, %eax vmovdqa 16(%rsp), %xmm2 jb .LBB2_38 movq %r13, %rdi movq %rbx, %r8 movq %r14, %r9 vmovdqa 176(%r13), %xmm1 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI2_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm7 jmp .LBB2_23 .LBB2_17: vmovdqu (%rcx), %xmm1 vpshufb .LCPI2_2(%rip), %xmm1, %xmm1 addq $16, %rcx vpxor %xmm1, %xmm7, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpbroadcastq .LCPI2_11(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm3, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm7 movq %rdx, %rsi cmpq $16, %rdx jb .LBB2_9 .LBB2_19: vmovdqa .LCPI2_2(%rip), %xmm1 vpbroadcastq .LCPI2_11(%rip), %xmm2 .p2align 4, 0x90 .LBB2_20: vmovdqu (%rcx), %xmm3 vmovdqu 16(%rcx), %xmm4 vpshufb %xmm1, %xmm3, %xmm3 vpxor %xmm3, %xmm7, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpclmulqdq $1, %xmm3, %xmm0, %xmm6 vpclmulqdq $16, %xmm3, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $16, %xmm2, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 addq $32, %rcx addq $-32, %rsi vpshufb %xmm1, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm6, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm4 vpclmulqdq $1, %xmm3, %xmm0, %xmm5 vpclmulqdq $16, %xmm3, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm7 cmpq $15, %rsi ja .LBB2_20 .LBB2_8: movq %rsi, %rdx testq %rdx, %rdx jne .LBB2_10 .LBB2_3: testq %r15, %r15 je .LBB2_12 movabsq $-68719476704, %rcx leaq (%r15,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB2_38 .LBB2_23: vmovdqa 80(%rsp), %xmm0 vpshufb .LCPI2_0(%rip), %xmm0, %xmm0 movq 520(%rsp), %rax vpaddd .LCPI2_1(%rip), %xmm0, %xmm3 cmpq $96, %r15 jb .LBB2_24 vmovaps (%rdi), %xmm0 vmovaps %xmm0, 112(%rsp) vmovaps 16(%rdi), %xmm0 vmovaps %xmm0, 352(%rsp) vmovaps 32(%rdi), %xmm0 vmovaps %xmm0, 336(%rsp) vmovaps 48(%rdi), %xmm0 vmovaps %xmm0, 320(%rsp) vmovaps 64(%rdi), %xmm0 vmovaps %xmm0, 304(%rsp) vmovaps 80(%rdi), %xmm0 vmovaps %xmm0, 288(%rsp) vmovaps 96(%rdi), %xmm0 vmovaps %xmm0, 272(%rsp) vmovaps 112(%rdi), %xmm0 vmovaps %xmm0, 256(%rsp) vmovaps 128(%rdi), %xmm0 vmovaps %xmm0, 240(%rsp) vmovaps 144(%rdi), %xmm0 vmovaps %xmm0, 224(%rsp) vmovaps 160(%rdi), %xmm0 vmovaps %xmm0, 208(%rsp) vmovaps 176(%rdi), %xmm0 vmovaps %xmm0, 192(%rsp) vmovaps 192(%rdi), %xmm0 vmovaps %xmm0, 176(%rsp) vmovaps 208(%rdi), %xmm0 vmovaps %xmm0, 160(%rsp) vmovaps 224(%rdi), %xmm0 vmovaps %xmm0, 144(%rsp) vmovaps 240(%rdi), %xmm0 vmovaps %xmm0, 128(%rsp) movq %r15, %rbx vmovdqa 256(%rdi), %xmm0 vmovdqa %xmm0, 96(%rsp) .p2align 4, 0x90 .LBB2_28: vmovdqa %xmm3, (%rsp) vmovdqu (%r9), %xmm9 vmovdqa %xmm9, 400(%rsp) vmovups 32(%r9), %xmm0 vmovaps %xmm0, 16(%rsp) vmovups 48(%r9), %xmm0 vmovaps %xmm0, 48(%rsp) vmovdqu 64(%r9), %xmm6 vmovdqa %xmm6, 384(%rsp) vmovdqu 80(%r9), %xmm8 vmovdqa %xmm8, 64(%rsp) vmovdqa .LCPI2_2(%rip), %xmm2 vpshufb %xmm2, %xmm3, %xmm0 vpaddd .LCPI2_1(%rip), %xmm3, %xmm1 vpshufb %xmm2, %xmm1, %xmm1 vmovdqa (%rsp), %xmm3 vpaddd .LCPI2_4(%rip), %xmm3, %xmm3 vpshufb %xmm2, %xmm3, %xmm3 vmovdqa (%rsp), %xmm4 vpaddd .LCPI2_5(%rip), %xmm4, %xmm4 vpshufb %xmm2, %xmm4, %xmm4 vmovdqa (%rsp), %xmm5 vpaddd .LCPI2_6(%rip), %xmm5, %xmm10 vpshufb %xmm2, %xmm10, %xmm10 vmovdqa (%rsp), %xmm5 vpaddd .LCPI2_7(%rip), %xmm5, %xmm11 vpshufb %xmm2, %xmm11, %xmm5 vpshufb %xmm2, %xmm9, %xmm11 vpxor %xmm7, %xmm11, %xmm7 vmovdqa %xmm7, 368(%rsp) vpshufb %xmm2, %xmm8, %xmm7 vmovdqa 112(%rsp), %xmm8 vpxor %xmm0, %xmm8, %xmm11 vpxor %xmm1, %xmm8, %xmm12 vpxor %xmm3, %xmm8, %xmm13 vpxor %xmm4, %xmm8, %xmm14 vpxor %xmm10, %xmm8, %xmm15 vpxor %xmm5, %xmm8, %xmm10 vmovaps 352(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm12, %xmm12 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm10, %xmm10 #NO_APP vpxor %xmm3, %xmm3, %xmm3 vpxor %xmm4, %xmm4, %xmm4 vxorps %xmm0, %xmm0, %xmm0 vmovaps 336(%rsp), %xmm5 vmovaps 192(%rsp), %xmm9 #APP vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm5, %xmm12, %xmm12 vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm5, %xmm14, %xmm14 vaesenc %xmm5, %xmm15, %xmm15 vaesenc %xmm5, %xmm10, %xmm10 vpclmulqdq $16, %xmm9, %xmm7, %xmm1 vpxor %xmm1, %xmm3, %xmm3 vpclmulqdq $0, %xmm9, %xmm7, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $17, %xmm9, %xmm7, %xmm1 vpxor %xmm1, %xmm4, %xmm4 vpclmulqdq $1, %xmm9, %xmm7, %xmm1 vpxor %xmm1, %xmm3, %xmm3 #NO_APP vpshufb %xmm2, %xmm6, %xmm1 vmovaps 320(%rsp), %xmm6 vmovaps 176(%rsp), %xmm9 #APP vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm14, %xmm14 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm6, %xmm10, %xmm10 vpclmulqdq $16, %xmm9, %xmm1, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $0, %xmm9, %xmm1, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpclmulqdq $17, %xmm9, %xmm1, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $1, %xmm9, %xmm1, %xmm5 vpxor %xmm5, %xmm3, %xmm3 #NO_APP vmovdqa 48(%rsp), %xmm1 vpshufb %xmm2, %xmm1, %xmm1 vmovaps 304(%rsp), %xmm6 vmovaps 160(%rsp), %xmm9 #APP vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm14, %xmm14 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm6, %xmm10, %xmm10 vpclmulqdq $16, %xmm9, %xmm1, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $0, %xmm9, %xmm1, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpclmulqdq $17, %xmm9, %xmm1, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $1, %xmm9, %xmm1, %xmm5 vpxor %xmm5, %xmm3, %xmm3 #NO_APP vmovdqa 16(%rsp), %xmm1 vpshufb %xmm2, %xmm1, %xmm1 vmovaps 288(%rsp), %xmm6 vmovaps 144(%rsp), %xmm9 #APP vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm14, %xmm14 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm6, %xmm10, %xmm10 vpclmulqdq $16, %xmm9, %xmm1, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $0, %xmm9, %xmm1, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpclmulqdq $17, %xmm9, %xmm1, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $1, %xmm9, %xmm1, %xmm5 vpxor %xmm5, %xmm3, %xmm3 #NO_APP vmovdqu 16(%r9), %xmm1 vpshufb %xmm2, %xmm1, %xmm5 vmovdqa 272(%rsp), %xmm9 vmovaps 128(%rsp), %xmm8 #APP vaesenc %xmm9, %xmm11, %xmm11 vaesenc %xmm9, %xmm12, %xmm12 vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm10, %xmm10 vpclmulqdq $16, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpclmulqdq $0, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $17, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $1, %xmm8, %xmm5, %xmm6 vpxor %xmm6, %xmm3, %xmm3 #NO_APP vmovaps 256(%rsp), %xmm5 #APP vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm5, %xmm12, %xmm12 vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm5, %xmm14, %xmm14 vaesenc %xmm5, %xmm15, %xmm15 vaesenc %xmm5, %xmm10, %xmm10 #NO_APP vmovdqa 240(%rsp), %xmm6 vmovdqa 96(%rsp), %xmm8 vmovdqa 368(%rsp), %xmm2 #APP vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm14, %xmm14 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm6, %xmm10, %xmm10 vpclmulqdq $16, %xmm8, %xmm2, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $0, %xmm8, %xmm2, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpclmulqdq $17, %xmm8, %xmm2, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $1, %xmm8, %xmm2, %xmm5 vpxor %xmm5, %xmm3, %xmm3 #NO_APP vpxor %xmm6, %xmm6, %xmm6 vpunpcklqdq %xmm3, %xmm6, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpunpckhqdq %xmm6, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpbroadcastq .LCPI2_11(%rip), %xmm5 vpclmulqdq $16, %xmm5, %xmm0, %xmm4 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm4, %xmm0 vpshufd $78, %xmm0, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm7 vmovaps 224(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm12, %xmm12 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm10, %xmm10 #NO_APP vmovaps 208(%rsp), %xmm0 #APP vaesenclast %xmm0, %xmm11, %xmm11 vaesenclast %xmm0, %xmm12, %xmm12 vaesenclast %xmm0, %xmm13, %xmm13 vaesenclast %xmm0, %xmm14, %xmm14 vaesenclast %xmm0, %xmm15, %xmm15 vaesenclast %xmm0, %xmm10, %xmm10 #NO_APP vpxor 400(%rsp), %xmm11, %xmm0 vpxor %xmm1, %xmm12, %xmm1 vpxor 16(%rsp), %xmm13, %xmm3 vpxor 48(%rsp), %xmm14, %xmm4 vpxor 384(%rsp), %xmm15, %xmm5 vmovdqu %xmm0, (%rax) vmovdqu %xmm1, 16(%rax) vmovdqu %xmm3, 32(%rax) vmovdqa (%rsp), %xmm3 vmovdqu %xmm4, 48(%rax) vmovdqu %xmm5, 64(%rax) vpxor 64(%rsp), %xmm10, %xmm0 vmovdqu %xmm0, 80(%rax) addq $96, %r9 addq $96, %rax addq $-96, %rbx vpaddd .LCPI2_8(%rip), %xmm3, %xmm3 cmpq $95, %rbx ja .LBB2_28 vmovdqa %xmm7, %xmm2 cmpq $16, %rbx jb .LBB2_26 .LBB2_29: vmovdqa 176(%rdi), %xmm0 vmovaps (%rdi), %xmm1 vmovaps %xmm1, (%rsp) vmovaps 16(%rdi), %xmm1 vmovaps %xmm1, 16(%rsp) vmovaps 32(%rdi), %xmm1 vmovaps %xmm1, 48(%rsp) vmovdqa 48(%rdi), %xmm1 vmovdqa %xmm1, 64(%rsp) vmovdqa 64(%rdi), %xmm5 vmovdqa 80(%rdi), %xmm6 vmovdqa 96(%rdi), %xmm7 vmovdqa 112(%rdi), %xmm8 vmovdqa 128(%rdi), %xmm9 vmovdqa 144(%rdi), %xmm10 movq %rdi, %r13 vmovdqa 160(%rdi), %xmm11 vmovdqa .LCPI2_2(%rip), %xmm12 vpbroadcastq .LCPI2_11(%rip), %xmm13 .p2align 4, 0x90 .LBB2_30: vmovdqu (%r9), %xmm15 vpshufb %xmm12, %xmm15, %xmm14 vpxor %xmm2, %xmm14, %xmm14 vpclmulqdq $0, %xmm14, %xmm0, %xmm1 vpclmulqdq $1, %xmm14, %xmm0, %xmm2 vmovdqa %xmm3, %xmm4 vpclmulqdq $16, %xmm14, %xmm0, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $17, %xmm14, %xmm0, %xmm3 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm13, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpshufd $78, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpclmulqdq $16, %xmm13, %xmm1, %xmm1 vpxor %xmm2, %xmm1, %xmm2 vpshufb %xmm12, %xmm4, %xmm1 vpxor (%rsp), %xmm1, %xmm1 vaesenc 16(%rsp), %xmm1, %xmm1 vaesenc 48(%rsp), %xmm1, %xmm1 vaesenc 64(%rsp), %xmm1, %xmm1 vaesenc %xmm5, %xmm1, %xmm1 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm10, %xmm1, %xmm1 vaesenclast %xmm11, %xmm1, %xmm1 vpxor %xmm1, %xmm15, %xmm1 vmovdqu %xmm1, (%rax) leaq 16(%rax), %r14 addq $-16, %rbx addq $16, %r9 vpaddd .LCPI2_1(%rip), %xmm4, %xmm3 movq %r14, %rax cmpq $15, %rbx ja .LBB2_30 jmp .LBB2_31 .LBB2_24: movq %r15, %rbx vmovdqa %xmm7, %xmm2 cmpq $16, %rbx jae .LBB2_29 .LBB2_26: movq %rdi, %r13 movq %rax, %r14 .LBB2_31: vmovdqa %xmm2, 16(%rsp) movq %r8, %rbp vpxor %xmm1, %xmm1, %xmm1 vpxor %xmm2, %xmm2, %xmm2 testq %rbx, %rbx je .LBB2_33 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) leaq 32(%rsp), %rdi movq memcpy@GOTPCREL(%rip), %r12 movq %r9, %rsi movq %rbx, %rdx vmovdqa %xmm3, (%rsp) callq *%r12 vmovdqa (%rsp), %xmm0 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor (%r13), %xmm0, %xmm0 vaesenc 16(%r13), %xmm0, %xmm0 vaesenc 32(%r13), %xmm0, %xmm0 vaesenc 48(%r13), %xmm0, %xmm0 vaesenc 64(%r13), %xmm0, %xmm0 vaesenc 80(%r13), %xmm0, %xmm0 vaesenc 96(%r13), %xmm0, %xmm0 vaesenc 112(%r13), %xmm0, %xmm0 vaesenc 128(%r13), %xmm0, %xmm0 vaesenc 144(%r13), %xmm0, %xmm0 vaesenclast 160(%r13), %xmm0, %xmm0 vmovdqa 32(%rsp), %xmm1 vmovdqa %xmm1, (%rsp) vpxor %xmm1, %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) leaq 32(%rsp), %rsi movq %r14, %rdi movq %rbx, %rdx callq *%r12 vmovdqa (%rsp), %xmm2 vpxor %xmm1, %xmm1, %xmm1 movq 504(%rsp), %r12 .LBB2_33: vmovdqu (%r12), %xmm0 vmovdqa %xmm0, (%rsp) vmovdqa %xmm2, 416(%rsp) vmovdqa %xmm1, 32(%rsp) leaq 32(%rsp), %rdi leaq 416(%rsp), %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) testq %rbx, %rbx je .LBB2_34 vmovdqa 32(%rsp), %xmm0 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 movq %r13, %rdi vmovdqa 176(%r13), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI2_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm7 movq %rbp, %r8 jmp .LBB2_36 .LBB2_11: movq %r13, %rdi vmovdqa 176(%r13), %xmm1 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI2_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm7 movq %rbx, %r8 .LBB2_12: vmovdqu (%r12), %xmm5 jmp .LBB2_37 .LBB2_34: movq %r13, %rdi movq %rbp, %r8 vmovdqa 16(%rsp), %xmm7 .LBB2_36: vmovdqa (%rsp), %xmm5 .LBB2_37: vmovdqa 176(%rdi), %xmm0 vmovq %r8, %xmm1 vmovq %r15, %xmm2 vpunpcklqdq %xmm1, %xmm2, %xmm1 vpsllq $3, %xmm1, %xmm1 vpxor %xmm1, %xmm7, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpbroadcastq .LCPI2_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm2, %xmm1, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vmovdqa 80(%rsp), %xmm2 vpxor (%rdi), %xmm2, %xmm2 vaesenc 16(%rdi), %xmm2, %xmm2 vaesenc 32(%rdi), %xmm2, %xmm2 vaesenc 48(%rdi), %xmm2, %xmm2 vaesenc 64(%rdi), %xmm2, %xmm2 vaesenc 80(%rdi), %xmm2, %xmm2 vaesenc 96(%rdi), %xmm2, %xmm2 vaesenc 112(%rdi), %xmm2, %xmm2 vaesenc 128(%rdi), %xmm2, %xmm2 vaesenc 144(%rdi), %xmm2, %xmm2 vaesenclast 160(%rdi), %xmm2, %xmm2 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpshufb .LCPI2_9(%rip), %xmm3, %xmm3 vpshufb .LCPI2_10(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpxor %xmm1, %xmm5, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm0 xorl %eax, %eax vptest %xmm0, %xmm0 sete %al .LBB2_38: addq $440, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end2: .size haberdashery_aes128gcm_broadwell_decrypt, .Lfunc_end2-haberdashery_aes128gcm_broadwell_decrypt .cfi_endproc .section .text.haberdashery_aes128gcm_broadwell_is_supported,"ax",@progbits .globl haberdashery_aes128gcm_broadwell_is_supported .p2align 4, 0x90 .type haberdashery_aes128gcm_broadwell_is_supported,@function haberdashery_aes128gcm_broadwell_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $786729, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end3: .size haberdashery_aes128gcm_broadwell_is_supported, .Lfunc_end3-haberdashery_aes128gcm_broadwell_is_supported .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
87,796
asm/aes256gcmdndkv2kc_broadwell.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI0_1: .quad 4294967297 .quad 4294967297 .LCPI0_2: .quad 8589934594 .quad 8589934594 .LCPI0_3: .quad 17179869188 .quad 17179869188 .LCPI0_4: .quad 34359738376 .quad 34359738376 .LCPI0_5: .quad 68719476752 .quad 68719476752 .LCPI0_6: .quad 137438953504 .quad 137438953504 .LCPI0_7: .quad 274877907008 .quad 274877907008 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI0_8: .byte 13 .byte 14 .byte 15 .byte 12 .section .text.haberdashery_aes256gcmdndkv2kc_broadwell_init,"ax",@progbits .globl haberdashery_aes256gcmdndkv2kc_broadwell_init .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2kc_broadwell_init,@function haberdashery_aes256gcmdndkv2kc_broadwell_init: .cfi_startproc cmpq $32, %rdx jne .LBB0_2 vmovdqu (%rsi), %xmm0 vmovdqu 16(%rsi), %xmm1 vpslldq $4, %xmm0, %xmm2 vpslldq $8, %xmm0, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpslldq $12, %xmm0, %xmm4 vpbroadcastd .LCPI0_8(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm5 vaesenclast .LCPI0_1(%rip), %xmm5, %xmm5 vpxor %xmm4, %xmm2, %xmm2 vpxor %xmm0, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpslldq $4, %xmm1, %xmm4 vpslldq $8, %xmm1, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm1, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpshufd $255, %xmm2, %xmm5 vpxor %xmm6, %xmm6, %xmm6 vaesenclast %xmm6, %xmm5, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpslldq $4, %xmm2, %xmm5 vpslldq $8, %xmm2, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpslldq $12, %xmm2, %xmm7 vpshufb %xmm3, %xmm4, %xmm8 vaesenclast .LCPI0_2(%rip), %xmm8, %xmm8 vpxor %xmm7, %xmm5, %xmm5 vpxor %xmm2, %xmm5, %xmm5 vpxor %xmm5, %xmm8, %xmm5 vpslldq $4, %xmm4, %xmm7 vpslldq $8, %xmm4, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpslldq $12, %xmm4, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpshufd $255, %xmm5, %xmm8 vaesenclast %xmm6, %xmm8, %xmm8 vpxor %xmm4, %xmm7, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpslldq $4, %xmm5, %xmm8 vpslldq $8, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpslldq $12, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpshufb %xmm3, %xmm7, %xmm9 vaesenclast .LCPI0_3(%rip), %xmm9, %xmm9 vpxor %xmm5, %xmm8, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpslldq $4, %xmm7, %xmm9 vpslldq $8, %xmm7, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpslldq $12, %xmm7, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpshufd $255, %xmm8, %xmm10 vaesenclast %xmm6, %xmm10, %xmm10 vpxor %xmm7, %xmm9, %xmm9 vpxor %xmm9, %xmm10, %xmm9 vpslldq $4, %xmm8, %xmm10 vpslldq $8, %xmm8, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpslldq $12, %xmm8, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpshufb %xmm3, %xmm9, %xmm11 vaesenclast .LCPI0_4(%rip), %xmm11, %xmm11 vpxor %xmm8, %xmm10, %xmm10 vpxor %xmm10, %xmm11, %xmm10 vpslldq $4, %xmm9, %xmm11 vpslldq $8, %xmm9, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpslldq $12, %xmm9, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpshufd $255, %xmm10, %xmm12 vaesenclast %xmm6, %xmm12, %xmm12 vpxor %xmm9, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpslldq $4, %xmm10, %xmm12 vpslldq $8, %xmm10, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpslldq $12, %xmm10, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpshufb %xmm3, %xmm11, %xmm13 vaesenclast .LCPI0_5(%rip), %xmm13, %xmm13 vpxor %xmm10, %xmm12, %xmm12 vpxor %xmm12, %xmm13, %xmm12 vpslldq $4, %xmm11, %xmm13 vpslldq $8, %xmm11, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpslldq $12, %xmm11, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpshufd $255, %xmm12, %xmm14 vaesenclast %xmm6, %xmm14, %xmm14 vpxor %xmm11, %xmm13, %xmm13 vpxor %xmm13, %xmm14, %xmm13 vpslldq $4, %xmm12, %xmm14 vpslldq $8, %xmm12, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpshufb %xmm3, %xmm13, %xmm15 vaesenclast .LCPI0_6(%rip), %xmm15, %xmm15 vpslldq $12, %xmm12, %xmm3 vpxor %xmm3, %xmm14, %xmm3 vpxor %xmm3, %xmm12, %xmm3 vpxor %xmm3, %xmm15, %xmm3 vpslldq $4, %xmm13, %xmm14 vpslldq $8, %xmm13, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpslldq $12, %xmm13, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpshufd $255, %xmm3, %xmm15 vaesenclast %xmm6, %xmm15, %xmm6 vpxor %xmm13, %xmm14, %xmm14 vpxor %xmm6, %xmm14, %xmm6 vpslldq $4, %xmm3, %xmm14 vpslldq $8, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpslldq $12, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpshufb .LCPI0_0(%rip), %xmm6, %xmm15 vaesenclast .LCPI0_7(%rip), %xmm15, %xmm15 vpxor %xmm3, %xmm14, %xmm14 vpxor %xmm14, %xmm15, %xmm14 vmovdqa %xmm0, (%rdi) vmovdqa %xmm1, 16(%rdi) vmovdqa %xmm2, 32(%rdi) vmovdqa %xmm4, 48(%rdi) vmovdqa %xmm5, 64(%rdi) vmovdqa %xmm7, 80(%rdi) vmovdqa %xmm8, 96(%rdi) vmovdqa %xmm9, 112(%rdi) vmovdqa %xmm10, 128(%rdi) vmovdqa %xmm11, 144(%rdi) vmovdqa %xmm12, 160(%rdi) vmovdqa %xmm13, 176(%rdi) vmovdqa %xmm3, 192(%rdi) vmovdqa %xmm6, 208(%rdi) vmovdqa %xmm14, 224(%rdi) .LBB0_2: xorl %eax, %eax cmpq $32, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes256gcmdndkv2kc_broadwell_init, .Lfunc_end0-haberdashery_aes256gcmdndkv2kc_broadwell_init .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI1_0: .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 0 .LCPI1_1: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 224 .LCPI1_2: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 225 .LCPI1_3: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 226 .LCPI1_4: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 227 .LCPI1_5: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 228 .LCPI1_6: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI1_7: .quad 4294967297 .quad 4294967297 .LCPI1_14: .quad 274877907008 .quad 274877907008 .LCPI1_15: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_16: .zero 8 .quad -4467570830351532032 .LCPI1_17: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_18: .long 1 .long 0 .long 0 .long 0 .LCPI1_19: .long 2 .long 0 .long 0 .long 0 .LCPI1_20: .long 3 .long 0 .long 0 .long 0 .LCPI1_21: .long 4 .long 0 .long 0 .long 0 .LCPI1_22: .long 5 .long 0 .long 0 .long 0 .LCPI1_23: .long 6 .long 0 .long 0 .long 0 .LCPI1_24: .long 7 .long 0 .long 0 .long 0 .LCPI1_25: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_26: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_27: .zero 16 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI1_8: .long 0x00000002 .LCPI1_9: .long 0x0c0f0e0d .LCPI1_10: .long 0x00000004 .LCPI1_11: .long 0x00000008 .LCPI1_12: .long 0x00000010 .LCPI1_13: .long 0x00000020 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI1_28: .quad -4467570830351532032 .section .text.haberdashery_aes256gcmdndkv2kc_broadwell_encrypt,"ax",@progbits .globl haberdashery_aes256gcmdndkv2kc_broadwell_encrypt .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2kc_broadwell_encrypt,@function haberdashery_aes256gcmdndkv2kc_broadwell_encrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $456, %rsp .cfi_def_cfa_offset 512 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 512(%rsp), %r15 xorl %eax, %eax cmpq 528(%rsp), %r15 jne .LBB1_49 movq %r15, %r10 shrq $5, %r10 cmpq $2147483646, %r10 ja .LBB1_49 movabsq $2305843009213693950, %r10 cmpq %r10, %r8 ja .LBB1_49 cmpq $24, %rdx jne .LBB1_49 cmpq $48, 544(%rsp) jne .LBB1_49 vmovdqu (%rsi), %xmm0 vpextrb $15, %xmm0, %edx vpand .LCPI1_0(%rip), %xmm0, %xmm0 vpxor (%rdi), %xmm0, %xmm10 vpxor .LCPI1_1(%rip), %xmm10, %xmm2 vmovdqa 16(%rdi), %xmm11 vmovdqa 32(%rdi), %xmm9 vmovdqa 48(%rdi), %xmm1 vmovdqa 64(%rdi), %xmm0 vmovdqa %xmm0, 16(%rsp) vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm0, %xmm2, %xmm3 vmovdqa 80(%rdi), %xmm2 vaesenc %xmm2, %xmm3, %xmm4 vmovdqa 96(%rdi), %xmm3 vaesenc %xmm3, %xmm4, %xmm5 vmovdqa 112(%rdi), %xmm4 vaesenc %xmm4, %xmm5, %xmm6 vmovdqa 128(%rdi), %xmm5 vaesenc %xmm5, %xmm6, %xmm7 vmovdqa 144(%rdi), %xmm6 vaesenc %xmm6, %xmm7, %xmm8 vmovdqa 160(%rdi), %xmm7 vaesenc %xmm7, %xmm8, %xmm12 vmovdqa 176(%rdi), %xmm8 vaesenc %xmm8, %xmm12, %xmm12 vpxor .LCPI1_2(%rip), %xmm10, %xmm13 vaesenc %xmm11, %xmm13, %xmm13 vpxor .LCPI1_3(%rip), %xmm10, %xmm14 vpxor .LCPI1_4(%rip), %xmm10, %xmm15 vaesenc %xmm11, %xmm14, %xmm14 vaesenc %xmm11, %xmm15, %xmm15 vpxor .LCPI1_5(%rip), %xmm10, %xmm10 vaesenc %xmm11, %xmm10, %xmm11 vmovdqa 192(%rdi), %xmm10 vaesenc %xmm10, %xmm12, %xmm12 vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm11, %xmm9 vmovdqa 208(%rdi), %xmm11 vaesenc %xmm11, %xmm12, %xmm0 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm9, %xmm1 vmovdqa 224(%rdi), %xmm12 vaesenclast %xmm12, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) vmovdqa 16(%rsp), %xmm0 vaesenc %xmm0, %xmm13, %xmm9 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm4, %xmm9, %xmm9 vaesenc %xmm5, %xmm9, %xmm9 vaesenc %xmm6, %xmm9, %xmm9 vaesenc %xmm7, %xmm9, %xmm9 vaesenc %xmm8, %xmm9, %xmm9 vaesenc %xmm10, %xmm9, %xmm9 vaesenc %xmm11, %xmm9, %xmm9 vaesenclast %xmm12, %xmm9, %xmm13 vaesenc %xmm0, %xmm14, %xmm9 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm4, %xmm9, %xmm9 vaesenc %xmm5, %xmm9, %xmm9 vaesenc %xmm6, %xmm9, %xmm9 vaesenc %xmm7, %xmm9, %xmm9 vaesenc %xmm8, %xmm9, %xmm9 vaesenc %xmm10, %xmm9, %xmm9 vaesenc %xmm11, %xmm9, %xmm9 vaesenclast %xmm12, %xmm9, %xmm14 vaesenc %xmm0, %xmm15, %xmm9 vaesenc %xmm2, %xmm9, %xmm9 vaesenc %xmm3, %xmm9, %xmm9 vaesenc %xmm4, %xmm9, %xmm9 vaesenc %xmm5, %xmm9, %xmm9 vaesenc %xmm6, %xmm9, %xmm9 vaesenc %xmm7, %xmm9, %xmm9 vaesenc %xmm8, %xmm9, %xmm9 vaesenc %xmm10, %xmm9, %xmm9 vaesenc %xmm11, %xmm9, %xmm9 vaesenclast %xmm12, %xmm9, %xmm9 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm2, %xmm1, %xmm1 vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm5, %xmm1, %xmm1 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm10, %xmm1, %xmm1 vaesenc %xmm11, %xmm1, %xmm1 vaesenclast %xmm12, %xmm1, %xmm2 vmovdqa (%rsp), %xmm0 vpxor %xmm0, %xmm13, %xmm5 vpxor %xmm0, %xmm14, %xmm6 vpslldq $4, %xmm5, %xmm1 vpslldq $8, %xmm5, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpslldq $12, %xmm5, %xmm3 vpxor %xmm3, %xmm1, %xmm3 vpbroadcastd .LCPI1_9(%rip), %xmm1 vpshufb %xmm1, %xmm6, %xmm4 vaesenclast .LCPI1_7(%rip), %xmm4, %xmm4 vpxor %xmm5, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm8 vmovdqa %xmm5, 16(%rsp) vaesenc %xmm6, %xmm5, %xmm3 vpslldq $4, %xmm6, %xmm4 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpshufd $255, %xmm8, %xmm5 vpxor %xmm13, %xmm13, %xmm13 vaesenclast %xmm13, %xmm5, %xmm5 vmovdqa %xmm6, 64(%rsp) vpxor %xmm6, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm11 vbroadcastss .LCPI1_8(%rip), %xmm5 vbroadcastss .LCPI1_9(%rip), %xmm4 vmovdqa %xmm8, 288(%rsp) #APP vaesenc %xmm8, %xmm3, %xmm3 vpslldq $4, %xmm8, %xmm6 vpslldq $8, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpslldq $12, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpshufb %xmm4, %xmm11, %xmm10 vaesenclast %xmm5, %xmm10, %xmm10 vpxor %xmm6, %xmm10, %xmm10 #NO_APP vmovdqa %xmm11, 272(%rsp) #APP vaesenc %xmm11, %xmm3, %xmm3 vpslldq $4, %xmm11, %xmm5 vpslldq $8, %xmm11, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpslldq $12, %xmm11, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpxor %xmm5, %xmm11, %xmm5 vpshufd $255, %xmm10, %xmm8 vaesenclast %xmm13, %xmm8, %xmm8 vpxor %xmm5, %xmm8, %xmm8 #NO_APP vbroadcastss .LCPI1_10(%rip), %xmm5 vmovaps %xmm10, 128(%rsp) #APP vaesenc %xmm10, %xmm3, %xmm3 vpslldq $4, %xmm10, %xmm6 vpslldq $8, %xmm10, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpslldq $12, %xmm10, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm10, %xmm6 vpshufb %xmm4, %xmm8, %xmm12 vaesenclast %xmm5, %xmm12, %xmm12 vpxor %xmm6, %xmm12, %xmm12 #NO_APP vmovaps %xmm8, 192(%rsp) #APP vaesenc %xmm8, %xmm3, %xmm3 vpslldq $4, %xmm8, %xmm5 vpslldq $8, %xmm8, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpslldq $12, %xmm8, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpxor %xmm5, %xmm8, %xmm5 vpshufd $255, %xmm12, %xmm14 vaesenclast %xmm13, %xmm14, %xmm14 vpxor %xmm5, %xmm14, %xmm14 #NO_APP vbroadcastss .LCPI1_11(%rip), %xmm5 #APP vaesenc %xmm12, %xmm3, %xmm3 vpslldq $4, %xmm12, %xmm6 vpslldq $8, %xmm12, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpslldq $12, %xmm12, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm12, %xmm6 vpshufb %xmm4, %xmm14, %xmm15 vaesenclast %xmm5, %xmm15, %xmm15 vpxor %xmm6, %xmm15, %xmm15 #NO_APP vmovaps %xmm14, 96(%rsp) #APP vaesenc %xmm14, %xmm3, %xmm3 vpslldq $4, %xmm14, %xmm5 vpslldq $8, %xmm14, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpslldq $12, %xmm14, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpxor %xmm5, %xmm14, %xmm5 vpshufd $255, %xmm15, %xmm8 vaesenclast %xmm13, %xmm8, %xmm8 vpxor %xmm5, %xmm8, %xmm8 #NO_APP vbroadcastss .LCPI1_12(%rip), %xmm5 vmovdqa %xmm15, %xmm10 #APP vaesenc %xmm15, %xmm3, %xmm3 vpslldq $4, %xmm15, %xmm6 vpslldq $8, %xmm15, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpslldq $12, %xmm15, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm15, %xmm6 vpshufb %xmm4, %xmm8, %xmm14 vaesenclast %xmm5, %xmm14, %xmm14 vpxor %xmm6, %xmm14, %xmm14 #NO_APP #APP vaesenc %xmm8, %xmm3, %xmm3 vpslldq $4, %xmm8, %xmm5 vpslldq $8, %xmm8, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpslldq $12, %xmm8, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpxor %xmm5, %xmm8, %xmm5 vpshufd $255, %xmm14, %xmm15 vaesenclast %xmm13, %xmm15, %xmm15 vpxor %xmm5, %xmm15, %xmm15 #NO_APP vbroadcastss .LCPI1_13(%rip), %xmm5 vmovaps %xmm14, 112(%rsp) #APP vaesenc %xmm14, %xmm3, %xmm3 vpslldq $4, %xmm14, %xmm6 vpslldq $8, %xmm14, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpslldq $12, %xmm14, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm14, %xmm6 vpshufb %xmm4, %xmm15, %xmm11 vaesenclast %xmm5, %xmm11, %xmm11 vpxor %xmm6, %xmm11, %xmm11 #NO_APP vmovdqa %xmm15, %xmm7 vpslldq $4, %xmm15, %xmm4 vpunpcklqdq %xmm15, %xmm13, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vinsertps $55, %xmm15, %xmm0, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpshufd $255, %xmm11, %xmm5 vaesenclast %xmm13, %xmm5, %xmm5 vpxor %xmm4, %xmm15, %xmm4 vpxor %xmm4, %xmm5, %xmm6 vpslldq $4, %xmm11, %xmm4 vpunpcklqdq %xmm11, %xmm13, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vinsertps $55, %xmm11, %xmm0, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpshufb %xmm1, %xmm6, %xmm1 vaesenclast .LCPI1_14(%rip), %xmm1, %xmm1 vpxor %xmm4, %xmm11, %xmm4 vpxor %xmm4, %xmm1, %xmm15 vpxor %xmm0, %xmm9, %xmm1 vmovdqa %xmm11, %xmm9 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm11, %xmm3, %xmm3 vmovdqa %xmm6, 48(%rsp) vaesenc %xmm6, %xmm3, %xmm3 vaesenclast %xmm15, %xmm3, %xmm3 vpshufb .LCPI1_15(%rip), %xmm3, %xmm3 vpxor %xmm0, %xmm2, %xmm0 vpsrlq $63, %xmm3, %xmm2 vpaddq %xmm3, %xmm3, %xmm3 vpshufd $78, %xmm2, %xmm4 vpor %xmm4, %xmm3, %xmm3 vpblendd $12, %xmm2, %xmm13, %xmm2 vpsllq $63, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpsllq $62, %xmm2, %xmm4 vpsllq $57, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpxor %xmm2, %xmm3, %xmm11 vpclmulqdq $0, %xmm11, %xmm11, %xmm2 vpbroadcastq .LCPI1_28(%rip), %xmm6 vpclmulqdq $16, %xmm6, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm11, %xmm11, %xmm3 vpshufd $78, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm5 vpclmulqdq $16, %xmm11, %xmm5, %xmm2 vpclmulqdq $1, %xmm11, %xmm5, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $0, %xmm11, %xmm5, %xmm3 vpslldq $8, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $17, %xmm11, %xmm5, %xmm4 vpxor %xmm2, %xmm4, %xmm2 vpshufd $78, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $16, %xmm6, %xmm3, %xmm3 vpxor %xmm3, %xmm2, %xmm14 vpclmulqdq $0, %xmm14, %xmm14, %xmm2 vpclmulqdq $16, %xmm6, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm14, %xmm14, %xmm3 vpshufd $78, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vmovdqa %xmm2, 368(%rsp) vpclmulqdq $0, %xmm5, %xmm5, %xmm2 vpclmulqdq $16, %xmm6, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vmovdqa %xmm5, 320(%rsp) vpclmulqdq $17, %xmm5, %xmm5, %xmm3 vpshufd $78, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm13 vpclmulqdq $16, %xmm11, %xmm13, %xmm2 vpclmulqdq $1, %xmm11, %xmm13, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $0, %xmm11, %xmm13, %xmm3 vpslldq $8, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $17, %xmm11, %xmm13, %xmm4 vpxor %xmm2, %xmm4, %xmm2 vpshufd $78, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $16, %xmm6, %xmm3, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vmovdqa %xmm2, 352(%rsp) movq 536(%rsp), %r12 movzbl 16(%rsi), %edi movzbl 17(%rsi), %r10d movzbl 23(%rsi), %r11d shll $8, %edi orl %edx, %edi shll $16, %r10d orl %edi, %r10d movzbl 18(%rsi), %edx shll $24, %edx orl %r10d, %edx vmovd %edx, %xmm2 vpinsrd $1, 19(%rsi), %xmm2, %xmm2 vmovdqu %xmm1, (%r12) vmovdqu %xmm0, 16(%r12) vpinsrd $2, %r11d, %xmm2, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm0 vmovdqa %xmm0, 384(%rsp) testq %r8, %r8 vmovaps %xmm12, 240(%rsp) vmovdqa %xmm15, 208(%rsp) vmovdqa %xmm11, 80(%rsp) vmovdqa %xmm14, 336(%rsp) vmovdqa %xmm10, 256(%rsp) vmovdqa %xmm8, 176(%rsp) vmovdqa %xmm7, 160(%rsp) vmovdqa %xmm9, 224(%rsp) je .LBB1_24 cmpq $96, %r8 jb .LBB1_7 vmovdqu 32(%rcx), %xmm1 vmovdqu 48(%rcx), %xmm2 vmovdqu 64(%rcx), %xmm3 vmovdqu 80(%rcx), %xmm4 vmovdqa .LCPI1_15(%rip), %xmm0 vpshufb %xmm0, %xmm1, %xmm5 vpshufb %xmm0, %xmm2, %xmm1 vpshufb %xmm0, %xmm3, %xmm2 vpshufb %xmm0, %xmm4, %xmm3 vpclmulqdq $0, %xmm3, %xmm11, %xmm4 vpclmulqdq $1, %xmm3, %xmm11, %xmm6 vpclmulqdq $16, %xmm3, %xmm11, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm11, %xmm3 vmovdqa 320(%rsp), %xmm8 vpclmulqdq $0, %xmm2, %xmm8, %xmm7 vpxor %xmm4, %xmm7, %xmm4 vpclmulqdq $1, %xmm2, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $17, %xmm2, %xmm8, %xmm2 vpxor %xmm3, %xmm2, %xmm2 vpclmulqdq $0, %xmm1, %xmm14, %xmm3 vpclmulqdq $1, %xmm1, %xmm14, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm13, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $16, %xmm1, %xmm14, %xmm7 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $1, %xmm5, %xmm13, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm5, %xmm13, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vmovdqu (%rcx), %xmm6 vmovdqa %xmm13, %xmm12 vpclmulqdq $17, %xmm5, %xmm13, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vmovdqu 16(%rcx), %xmm5 vpshufb %xmm0, %xmm6, %xmm6 vpshufb %xmm0, %xmm5, %xmm5 vpclmulqdq $17, %xmm1, %xmm14, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vmovdqa 352(%rsp), %xmm15 vpclmulqdq $0, %xmm5, %xmm15, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $1, %xmm5, %xmm15, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm5, %xmm15, %xmm4 vpclmulqdq $17, %xmm5, %xmm15, %xmm5 vpxor %xmm5, %xmm1, %xmm5 vmovdqa 368(%rsp), %xmm14 vpclmulqdq $0, %xmm6, %xmm14, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $1, %xmm6, %xmm14, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm6, %xmm14, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpclmulqdq $17, %xmm6, %xmm14, %xmm3 vpxor %xmm3, %xmm5, %xmm3 addq $96, %rcx leaq -96(%r8), %rsi cmpq $96, %rsi jb .LBB1_14 vmovdqa 80(%rsp), %xmm11 vmovdqa 320(%rsp), %xmm10 vmovdqa 336(%rsp), %xmm13 .p2align 4, 0x90 .LBB1_22: vmovdqu (%rcx), %xmm4 vmovdqu 32(%rcx), %xmm5 vmovdqu 48(%rcx), %xmm6 vmovdqu 64(%rcx), %xmm7 vmovdqu 80(%rcx), %xmm8 vpslldq $8, %xmm2, %xmm9 vpxor %xmm1, %xmm9, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpbroadcastq .LCPI1_28(%rip), %xmm9 vpclmulqdq $16, %xmm9, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm9, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpshufb %xmm0, %xmm4, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpxor %xmm3, %xmm1, %xmm3 vpshufb %xmm0, %xmm5, %xmm1 vpshufb %xmm0, %xmm6, %xmm2 vpshufb %xmm0, %xmm7, %xmm4 vpshufb %xmm0, %xmm8, %xmm5 vpclmulqdq $0, %xmm5, %xmm11, %xmm6 vpclmulqdq $1, %xmm5, %xmm11, %xmm7 vpclmulqdq $16, %xmm5, %xmm11, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm5, %xmm11, %xmm5 vpclmulqdq $0, %xmm4, %xmm10, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $1, %xmm4, %xmm10, %xmm8 vpclmulqdq $16, %xmm4, %xmm10, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm4, %xmm10, %xmm4 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $0, %xmm2, %xmm13, %xmm5 vpclmulqdq $1, %xmm2, %xmm13, %xmm8 vpclmulqdq $16, %xmm2, %xmm13, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpclmulqdq $0, %xmm1, %xmm12, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $1, %xmm1, %xmm12, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm2, %xmm13, %xmm2 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm1, %xmm12, %xmm7 vpxor %xmm7, %xmm2, %xmm2 vmovdqu 16(%rcx), %xmm7 vpshufb %xmm0, %xmm7, %xmm7 vpclmulqdq $16, %xmm1, %xmm12, %xmm1 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $0, %xmm7, %xmm15, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $1, %xmm7, %xmm15, %xmm5 vpxor %xmm5, %xmm1, %xmm1 vpclmulqdq $16, %xmm7, %xmm15, %xmm5 vpxor %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm6, %xmm5 vpclmulqdq $17, %xmm7, %xmm15, %xmm1 vpxor %xmm1, %xmm2, %xmm6 vpclmulqdq $0, %xmm3, %xmm14, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $1, %xmm3, %xmm14, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm3, %xmm14, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $17, %xmm3, %xmm14, %xmm3 vpxor %xmm3, %xmm6, %xmm3 addq $96, %rcx addq $-96, %rsi cmpq $95, %rsi ja .LBB1_22 jmp .LBB1_23 .LBB1_24: vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) testq %r15, %r15 vmovdqa 96(%rsp), %xmm14 vmovdqa 112(%rsp), %xmm15 vmovdqa 64(%rsp), %xmm12 vmovdqa 48(%rsp), %xmm5 vmovdqa 192(%rsp), %xmm6 vmovdqa 128(%rsp), %xmm10 vmovdqa 16(%rsp), %xmm9 jne .LBB1_29 jmp .LBB1_48 .LBB1_7: movq %r8, %rsi vmovdqa 64(%rsp), %xmm12 vmovdqa 48(%rsp), %xmm5 vpxor %xmm3, %xmm3, %xmm3 vmovdqa 16(%rsp), %xmm15 cmpq $16, %rsi vmovdqa 128(%rsp), %xmm10 jae .LBB1_15 .LBB1_9: movq %rsi, %rdx testq %rdx, %rdx vmovdqa %xmm3, (%rsp) jne .LBB1_11 jmp .LBB1_25 .LBB1_14: vmovdqa 80(%rsp), %xmm11 .LBB1_23: vpslldq $8, %xmm2, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpsrldq $8, %xmm2, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpbroadcastq .LCPI1_28(%rip), %xmm6 vpclmulqdq $16, %xmm6, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $16, %xmm6, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm3 vmovdqa 176(%rsp), %xmm8 vmovdqa 160(%rsp), %xmm7 vmovdqa %xmm12, %xmm13 vmovdqa 16(%rsp), %xmm15 vmovdqa 64(%rsp), %xmm12 vmovdqa 48(%rsp), %xmm5 cmpq $16, %rsi vmovdqa 128(%rsp), %xmm10 jb .LBB1_9 .LBB1_15: leaq -16(%rsi), %rdx testb $16, %dl je .LBB1_16 cmpq $16, %rdx jae .LBB1_18 .LBB1_10: testq %rdx, %rdx vmovdqa %xmm3, (%rsp) je .LBB1_25 .LBB1_11: vmovdqa %xmm13, 304(%rsp) movq %r9, %r14 movq %r8, %rbx vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 144(%rsp) leaq 144(%rsp), %rdi movq %rcx, %rsi callq *memcpy@GOTPCREL(%rip) vmovdqa 144(%rsp), %xmm0 testq %r15, %r15 je .LBB1_12 movabsq $-68719476704, %rax leaq (%r15,%rax), %rcx incq %rax cmpq %rax, %rcx movl $0, %eax vmovdqa 16(%rsp), %xmm9 vmovdqa 64(%rsp), %xmm12 vmovdqa 128(%rsp), %xmm10 vmovdqa 192(%rsp), %xmm6 vmovdqa 176(%rsp), %xmm8 vmovdqa 112(%rsp), %xmm15 vmovdqa 160(%rsp), %xmm7 vmovdqa 48(%rsp), %xmm5 vmovdqa 80(%rsp), %xmm4 vmovdqa 304(%rsp), %xmm13 jb .LBB1_49 movq %rbx, %r8 movq %r14, %r9 vpshufb .LCPI1_15(%rip), %xmm0, %xmm0 vpxor (%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm4, %xmm1 vpclmulqdq $1, %xmm0, %xmm4, %xmm2 vpclmulqdq $16, %xmm0, %xmm4, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm4, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_28(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rsp) jmp .LBB1_29 .LBB1_16: vmovdqu (%rcx), %xmm0 addq $16, %rcx vpshufb .LCPI1_15(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $0, %xmm0, %xmm11, %xmm1 vpclmulqdq $1, %xmm0, %xmm11, %xmm2 vpclmulqdq $16, %xmm0, %xmm11, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm11, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm6, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm6, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm3 movq %rdx, %rsi cmpq $16, %rdx jb .LBB1_10 .LBB1_18: vmovdqa .LCPI1_15(%rip), %xmm0 .p2align 4, 0x90 .LBB1_19: vmovdqu (%rcx), %xmm1 vmovdqu 16(%rcx), %xmm2 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $0, %xmm1, %xmm11, %xmm3 vpclmulqdq $1, %xmm1, %xmm11, %xmm4 vpclmulqdq $16, %xmm1, %xmm11, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm1, %xmm11, %xmm1 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpsrldq $8, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm6, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 addq $32, %rcx addq $-32, %rsi vpshufb %xmm0, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $0, %xmm1, %xmm11, %xmm2 vpclmulqdq $1, %xmm1, %xmm11, %xmm3 vpclmulqdq $16, %xmm1, %xmm11, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm11, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm6, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm6, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm3 cmpq $15, %rsi ja .LBB1_19 movq %rsi, %rdx vmovdqa 48(%rsp), %xmm5 testq %rdx, %rdx vmovdqa %xmm3, (%rsp) jne .LBB1_11 .LBB1_25: vmovdqa %xmm15, %xmm9 testq %r15, %r15 vmovdqa 96(%rsp), %xmm14 vmovdqa 112(%rsp), %xmm15 vmovdqa 192(%rsp), %xmm6 je .LBB1_48 movabsq $-68719476704, %rcx leaq (%r15,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB1_49 .LBB1_29: vmovdqa 384(%rsp), %xmm0 vpshufb .LCPI1_17(%rip), %xmm0, %xmm1 movq 520(%rsp), %rdx vpaddd .LCPI1_18(%rip), %xmm1, %xmm0 cmpq $96, %r15 jb .LBB1_30 leaq 96(%r9), %rax leaq 96(%rdx), %rcx vmovdqa .LCPI1_15(%rip), %xmm14 vpshufb %xmm14, %xmm0, %xmm2 vpaddd .LCPI1_19(%rip), %xmm1, %xmm3 vpshufb %xmm14, %xmm3, %xmm3 vpaddd .LCPI1_20(%rip), %xmm1, %xmm4 vpaddd .LCPI1_21(%rip), %xmm1, %xmm5 vpshufb %xmm14, %xmm4, %xmm4 vpshufb %xmm14, %xmm5, %xmm5 vmovdqa %xmm6, %xmm11 vpaddd .LCPI1_22(%rip), %xmm1, %xmm6 vpshufb %xmm14, %xmm6, %xmm6 vmovdqa %xmm7, %xmm15 vpaddd .LCPI1_23(%rip), %xmm1, %xmm7 vpshufb %xmm14, %xmm7, %xmm7 vpaddd .LCPI1_24(%rip), %xmm1, %xmm0 vmovdqa %xmm0, 32(%rsp) vpxor %xmm2, %xmm9, %xmm1 vpxor %xmm3, %xmm9, %xmm2 vpxor %xmm4, %xmm9, %xmm4 vpxor %xmm5, %xmm9, %xmm5 vpxor %xmm6, %xmm9, %xmm6 vpxor %xmm7, %xmm9, %xmm7 #APP vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm12, %xmm6, %xmm6 vaesenc %xmm12, %xmm7, %xmm7 #NO_APP vmovdqa 288(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm9, %xmm6, %xmm6 vaesenc %xmm9, %xmm7, %xmm7 #NO_APP vmovaps 272(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm7, %xmm7 #NO_APP #APP vaesenc %xmm10, %xmm1, %xmm1 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm4, %xmm4 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm10, %xmm6, %xmm6 vaesenc %xmm10, %xmm7, %xmm7 #NO_APP #APP vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 #NO_APP vmovaps 240(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm4, %xmm4 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm7, %xmm7 #NO_APP vmovaps 96(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm4, %xmm4 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm7, %xmm7 #NO_APP vmovaps 256(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm4, %xmm4 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm7, %xmm7 #NO_APP #APP vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 vaesenc %xmm8, %xmm7, %xmm7 #NO_APP vmovaps 112(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm4, %xmm4 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm7, %xmm7 #NO_APP #APP vaesenc %xmm15, %xmm1, %xmm1 vaesenc %xmm15, %xmm2, %xmm2 vaesenc %xmm15, %xmm4, %xmm4 vaesenc %xmm15, %xmm5, %xmm5 vaesenc %xmm15, %xmm6, %xmm6 vaesenc %xmm15, %xmm7, %xmm7 #NO_APP vmovaps 224(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm4, %xmm4 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm7, %xmm7 #NO_APP vmovaps 48(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm4, %xmm4 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm7, %xmm7 #NO_APP vmovaps 208(%rsp), %xmm3 #APP vaesenclast %xmm3, %xmm1, %xmm1 vaesenclast %xmm3, %xmm2, %xmm2 vaesenclast %xmm3, %xmm4, %xmm4 vaesenclast %xmm3, %xmm5, %xmm5 vaesenclast %xmm3, %xmm6, %xmm6 vaesenclast %xmm3, %xmm7, %xmm7 #NO_APP vpxor (%r9), %xmm1, %xmm3 vpxor 16(%r9), %xmm2, %xmm10 vpxor 32(%r9), %xmm4, %xmm4 vpxor 48(%r9), %xmm5, %xmm5 vpxor 64(%r9), %xmm6, %xmm11 vpxor 80(%r9), %xmm7, %xmm1 vmovdqu %xmm3, (%rdx) vmovdqu %xmm10, 16(%rdx) vmovdqu %xmm4, 32(%rdx) vmovdqu %xmm5, 48(%rdx) vmovdqu %xmm11, 64(%rdx) leaq -96(%r15), %rbx vmovdqu %xmm1, 80(%rdx) cmpq $96, %rbx jb .LBB1_36 vmovdqa %xmm13, 304(%rsp) vmovdqa (%rsp), %xmm0 vmovdqa 32(%rsp), %xmm9 .p2align 4, 0x90 .LBB1_39: vmovdqa %xmm5, 400(%rsp) vmovdqa %xmm4, 416(%rsp) vmovdqa %xmm10, 32(%rsp) vmovdqa .LCPI1_15(%rip), %xmm8 vpshufb %xmm8, %xmm9, %xmm2 vpaddd .LCPI1_18(%rip), %xmm9, %xmm4 vpshufb %xmm8, %xmm4, %xmm4 vpaddd .LCPI1_19(%rip), %xmm9, %xmm5 vpshufb %xmm8, %xmm5, %xmm5 vpaddd .LCPI1_20(%rip), %xmm9, %xmm6 vpshufb %xmm8, %xmm6, %xmm6 vpaddd .LCPI1_21(%rip), %xmm9, %xmm12 vpshufb %xmm8, %xmm12, %xmm12 vpaddd .LCPI1_22(%rip), %xmm9, %xmm13 vpshufb %xmm8, %xmm13, %xmm7 vpshufb %xmm8, %xmm3, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) vpshufb %xmm8, %xmm1, %xmm0 vmovdqa 16(%rsp), %xmm10 vpxor %xmm2, %xmm10, %xmm13 vpxor %xmm4, %xmm10, %xmm14 vpxor %xmm5, %xmm10, %xmm15 vpxor %xmm6, %xmm10, %xmm1 vpxor %xmm12, %xmm10, %xmm2 vpxor %xmm7, %xmm10, %xmm12 vmovaps 64(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm12, %xmm12 #NO_APP vxorps %xmm4, %xmm4, %xmm4 vpxor %xmm5, %xmm5, %xmm5 vpxor %xmm6, %xmm6, %xmm6 vmovaps 288(%rsp), %xmm10 vmovaps 80(%rsp), %xmm3 #APP vaesenc %xmm10, %xmm13, %xmm13 vaesenc %xmm10, %xmm14, %xmm14 vaesenc %xmm10, %xmm15, %xmm15 vaesenc %xmm10, %xmm1, %xmm1 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm12, %xmm12 vpclmulqdq $16, %xmm3, %xmm0, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $0, %xmm3, %xmm0, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $17, %xmm3, %xmm0, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $1, %xmm3, %xmm0, %xmm7 vpxor %xmm7, %xmm4, %xmm4 #NO_APP vpshufb %xmm8, %xmm11, %xmm0 vmovaps 272(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm12, %xmm12 #NO_APP vmovaps 128(%rsp), %xmm10 vmovaps 320(%rsp), %xmm3 #APP vaesenc %xmm10, %xmm13, %xmm13 vaesenc %xmm10, %xmm14, %xmm14 vaesenc %xmm10, %xmm15, %xmm15 vaesenc %xmm10, %xmm1, %xmm1 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm12, %xmm12 vpclmulqdq $16, %xmm3, %xmm0, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $0, %xmm3, %xmm0, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $17, %xmm3, %xmm0, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $1, %xmm3, %xmm0, %xmm7 vpxor %xmm7, %xmm4, %xmm4 #NO_APP vmovdqa 400(%rsp), %xmm0 vpshufb %xmm8, %xmm0, %xmm0 vmovaps 192(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm12, %xmm12 #NO_APP vmovaps 240(%rsp), %xmm10 vmovaps 336(%rsp), %xmm11 #APP vaesenc %xmm10, %xmm13, %xmm13 vaesenc %xmm10, %xmm14, %xmm14 vaesenc %xmm10, %xmm15, %xmm15 vaesenc %xmm10, %xmm1, %xmm1 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm12, %xmm12 vpclmulqdq $16, %xmm11, %xmm0, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $0, %xmm11, %xmm0, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $17, %xmm11, %xmm0, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $1, %xmm11, %xmm0, %xmm7 vpxor %xmm7, %xmm4, %xmm4 #NO_APP vmovdqa 416(%rsp), %xmm0 vpshufb %xmm8, %xmm0, %xmm0 vmovaps 96(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm12, %xmm12 #NO_APP vmovaps 256(%rsp), %xmm10 vmovaps 304(%rsp), %xmm11 #APP vaesenc %xmm10, %xmm13, %xmm13 vaesenc %xmm10, %xmm14, %xmm14 vaesenc %xmm10, %xmm15, %xmm15 vaesenc %xmm10, %xmm1, %xmm1 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm12, %xmm12 vpclmulqdq $16, %xmm11, %xmm0, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $0, %xmm11, %xmm0, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $17, %xmm11, %xmm0, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $1, %xmm11, %xmm0, %xmm7 vpxor %xmm7, %xmm4, %xmm4 #NO_APP vmovdqa 32(%rsp), %xmm0 vpshufb %xmm8, %xmm0, %xmm0 vmovaps 176(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm12, %xmm12 #NO_APP vmovaps 112(%rsp), %xmm3 vmovaps 352(%rsp), %xmm8 #APP vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm12, %xmm12 vpclmulqdq $16, %xmm8, %xmm0, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $0, %xmm8, %xmm0, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $17, %xmm8, %xmm0, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $1, %xmm8, %xmm0, %xmm7 vpxor %xmm7, %xmm4, %xmm4 #NO_APP vmovaps 160(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm12, %xmm12 #NO_APP vmovdqa 224(%rsp), %xmm7 vmovdqa 368(%rsp), %xmm3 vmovdqa (%rsp), %xmm8 #APP vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm12, %xmm12 vpclmulqdq $16, %xmm3, %xmm8, %xmm0 vpxor %xmm0, %xmm4, %xmm4 vpclmulqdq $0, %xmm3, %xmm8, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpclmulqdq $17, %xmm3, %xmm8, %xmm0 vpxor %xmm0, %xmm5, %xmm5 vpclmulqdq $1, %xmm3, %xmm8, %xmm0 vpxor %xmm0, %xmm4, %xmm4 #NO_APP vpxor %xmm3, %xmm3, %xmm3 vpunpcklqdq %xmm4, %xmm3, %xmm0 vpxor %xmm0, %xmm6, %xmm0 vpunpckhqdq %xmm3, %xmm4, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpbroadcastq .LCPI1_28(%rip), %xmm5 vpclmulqdq $16, %xmm5, %xmm0, %xmm4 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm4, %xmm0 vpshufd $78, %xmm0, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vmovaps 48(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm12, %xmm12 #NO_APP vmovaps 208(%rsp), %xmm3 #APP vaesenclast %xmm3, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 vaesenclast %xmm3, %xmm15, %xmm15 vaesenclast %xmm3, %xmm1, %xmm1 vaesenclast %xmm3, %xmm2, %xmm2 vaesenclast %xmm3, %xmm12, %xmm12 #NO_APP vpxor (%rax), %xmm13, %xmm3 vpxor 16(%rax), %xmm14, %xmm10 vpxor 32(%rax), %xmm15, %xmm4 vpxor 48(%rax), %xmm1, %xmm5 vpxor 64(%rax), %xmm2, %xmm11 vpxor 80(%rax), %xmm12, %xmm1 addq $96, %rax vmovdqu %xmm3, (%rcx) vmovdqu %xmm10, 16(%rcx) vmovdqu %xmm4, 32(%rcx) vmovdqu %xmm5, 48(%rcx) vmovdqu %xmm11, 64(%rcx) vmovdqu %xmm1, 80(%rcx) addq $96, %rcx addq $-96, %rbx vpaddd .LCPI1_23(%rip), %xmm9, %xmm9 cmpq $95, %rbx ja .LBB1_39 vmovdqa %xmm9, 32(%rsp) vmovdqa 304(%rsp), %xmm13 jmp .LBB1_37 .LBB1_30: vmovdqa %xmm0, 32(%rsp) movq %r15, %rbx vmovdqa (%rsp), %xmm0 vmovdqa %xmm15, %xmm8 movq %r8, %r13 cmpq $16, %rbx jae .LBB1_41 .LBB1_32: movq %rdx, %r14 movq %r9, %rsi vmovdqa 32(%rsp), %xmm10 jmp .LBB1_33 .LBB1_12: movq %rbx, %r8 jmp .LBB1_46 .LBB1_36: vmovdqa (%rsp), %xmm0 .LBB1_37: vmovdqa .LCPI1_15(%rip), %xmm7 vpshufb %xmm7, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm2 vpshufb %xmm7, %xmm10, %xmm3 vpshufb %xmm7, %xmm4, %xmm4 vpshufb %xmm7, %xmm5, %xmm5 vpshufb %xmm7, %xmm11, %xmm6 vpshufb %xmm7, %xmm1, %xmm0 vmovdqa 80(%rsp), %xmm10 vpclmulqdq $0, %xmm0, %xmm10, %xmm1 vpclmulqdq $1, %xmm0, %xmm10, %xmm7 vpclmulqdq $16, %xmm0, %xmm10, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vmovdqa 320(%rsp), %xmm11 vpclmulqdq $0, %xmm6, %xmm11, %xmm8 vpxor %xmm1, %xmm8, %xmm1 vpclmulqdq $1, %xmm6, %xmm11, %xmm8 vpclmulqdq $16, %xmm6, %xmm11, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm0, %xmm10, %xmm0 vpclmulqdq $17, %xmm6, %xmm11, %xmm6 vpxor %xmm0, %xmm6, %xmm0 vmovdqa 336(%rsp), %xmm9 vpclmulqdq $1, %xmm5, %xmm9, %xmm6 vpclmulqdq $16, %xmm5, %xmm9, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm5, %xmm9, %xmm8 vpclmulqdq $17, %xmm5, %xmm9, %xmm5 vpclmulqdq $0, %xmm4, %xmm13, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpxor %xmm1, %xmm8, %xmm1 vpclmulqdq $1, %xmm4, %xmm13, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $16, %xmm4, %xmm13, %xmm7 vpclmulqdq $17, %xmm4, %xmm13, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpxor %xmm4, %xmm0, %xmm0 vmovdqa 352(%rsp), %xmm8 vpclmulqdq $0, %xmm3, %xmm8, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $1, %xmm3, %xmm8, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $17, %xmm3, %xmm8, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vmovdqa 368(%rsp), %xmm5 vpclmulqdq $0, %xmm2, %xmm5, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $1, %xmm2, %xmm5, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm2, %xmm5, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $17, %xmm2, %xmm5, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_28(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpshufd $78, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 movq %rcx, %rdx movq %rax, %r9 vmovdqa 192(%rsp), %xmm6 vmovdqa 112(%rsp), %xmm8 vmovdqa 48(%rsp), %xmm5 movq %r8, %r13 cmpq $16, %rbx jb .LBB1_32 .LBB1_41: vmovdqa 80(%rsp), %xmm14 vmovdqa 176(%rsp), %xmm7 vmovdqa 160(%rsp), %xmm9 vmovdqa 224(%rsp), %xmm1 vmovdqa 128(%rsp), %xmm11 vmovdqa 32(%rsp), %xmm10 vmovdqa 240(%rsp), %xmm13 vmovdqa 208(%rsp), %xmm12 vmovdqa 96(%rsp), %xmm15 .p2align 4, 0x90 .LBB1_42: vmovdqa .LCPI1_15(%rip), %xmm4 vpshufb %xmm4, %xmm10, %xmm2 vpxor 16(%rsp), %xmm2, %xmm2 vaesenc 64(%rsp), %xmm2, %xmm2 vaesenc 288(%rsp), %xmm2, %xmm2 vaesenc 272(%rsp), %xmm2, %xmm2 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm15, %xmm2, %xmm2 vaesenc 256(%rsp), %xmm2, %xmm2 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm5, %xmm2, %xmm2 vaesenclast %xmm12, %xmm2, %xmm2 vpxor (%r9), %xmm2, %xmm2 vpshufb %xmm4, %xmm2, %xmm3 vmovdqu %xmm2, (%rdx) vpxor %xmm3, %xmm0, %xmm2 vpclmulqdq $1, %xmm2, %xmm14, %xmm3 vpclmulqdq $16, %xmm2, %xmm14, %xmm4 vmovdqa %xmm6, %xmm0 vmovdqa %xmm5, %xmm6 vpclmulqdq $0, %xmm2, %xmm14, %xmm5 vpxor %xmm3, %xmm4, %xmm3 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vmovdqa %xmm6, %xmm5 vmovdqa %xmm0, %xmm6 vpclmulqdq $17, %xmm2, %xmm14, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpbroadcastq .LCPI1_28(%rip), %xmm0 vpclmulqdq $16, %xmm0, %xmm4, %xmm3 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpshufd $78, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $16, %xmm0, %xmm3, %xmm3 vpxor %xmm2, %xmm3, %xmm0 leaq 16(%r9), %rsi leaq 16(%rdx), %r14 addq $-16, %rbx vpaddd .LCPI1_18(%rip), %xmm10, %xmm10 movq %r14, %rdx movq %rsi, %r9 cmpq $15, %rbx ja .LBB1_42 .LBB1_33: vmovdqa %xmm10, 32(%rsp) vmovdqa %xmm0, (%rsp) testq %rbx, %rbx je .LBB1_34 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 144(%rsp) leaq 144(%rsp), %rdi movq memcpy@GOTPCREL(%rip), %rbp movq %rbx, %rdx callq *%rbp vmovdqa 32(%rsp), %xmm0 vpshufb .LCPI1_15(%rip), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 vaesenc 64(%rsp), %xmm0, %xmm0 vaesenc 288(%rsp), %xmm0, %xmm0 vaesenc 272(%rsp), %xmm0, %xmm0 vaesenc 128(%rsp), %xmm0, %xmm0 vaesenc 192(%rsp), %xmm0, %xmm0 vaesenc 240(%rsp), %xmm0, %xmm0 vaesenc 96(%rsp), %xmm0, %xmm0 vaesenc 256(%rsp), %xmm0, %xmm0 vaesenc 176(%rsp), %xmm0, %xmm0 vaesenc 112(%rsp), %xmm0, %xmm0 vaesenc 160(%rsp), %xmm0, %xmm0 vaesenc 224(%rsp), %xmm0, %xmm0 vaesenc 48(%rsp), %xmm0, %xmm0 vaesenclast 208(%rsp), %xmm0, %xmm0 vpxor 144(%rsp), %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) vmovdqa %xmm0, 144(%rsp) leaq 144(%rsp), %rsi movq %r14, %rdi movq %rbx, %rdx callq *%rbp testq %r15, %r15 je .LBB1_44 vmovaps 32(%rsp), %xmm0 vmovaps %xmm0, 432(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 144(%rsp) leaq 144(%rsp), %rdi leaq 432(%rsp), %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) vmovdqa 144(%rsp), %xmm0 movq %r13, %r8 .LBB1_46: vmovdqa 16(%rsp), %xmm9 vmovdqa 64(%rsp), %xmm12 vmovdqa 128(%rsp), %xmm10 vmovdqa 192(%rsp), %xmm6 vmovdqa 96(%rsp), %xmm14 vmovdqa 176(%rsp), %xmm8 vmovdqa 112(%rsp), %xmm15 vmovdqa 160(%rsp), %xmm7 vmovdqa 48(%rsp), %xmm5 vmovdqa 80(%rsp), %xmm11 jmp .LBB1_47 .LBB1_34: vmovdqa %xmm8, %xmm15 movq %r13, %r8 vmovdqa 80(%rsp), %xmm11 vmovdqa 64(%rsp), %xmm12 vmovdqa 16(%rsp), %xmm9 vmovdqa 176(%rsp), %xmm8 vmovdqa 160(%rsp), %xmm7 vmovdqa 128(%rsp), %xmm10 vmovdqa 96(%rsp), %xmm14 jmp .LBB1_48 .LBB1_44: movq %r13, %r8 vmovdqa 16(%rsp), %xmm9 vmovdqa 64(%rsp), %xmm12 vmovdqa 128(%rsp), %xmm10 vmovdqa 192(%rsp), %xmm6 vmovdqa 96(%rsp), %xmm14 vmovdqa 176(%rsp), %xmm8 vmovdqa 112(%rsp), %xmm15 vmovdqa 160(%rsp), %xmm7 vmovdqa 48(%rsp), %xmm5 vmovdqa 80(%rsp), %xmm11 vmovdqa 32(%rsp), %xmm0 .LBB1_47: vpshufb .LCPI1_15(%rip), %xmm0, %xmm0 vpxor (%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm11, %xmm1 vpclmulqdq $1, %xmm0, %xmm11, %xmm2 vpclmulqdq $16, %xmm0, %xmm11, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm11, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_28(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm0, (%rsp) .LBB1_48: vmovq %r8, %xmm0 vmovq %r15, %xmm1 vpunpcklqdq %xmm0, %xmm1, %xmm0 vpsllq $3, %xmm0, %xmm0 vpxor (%rsp), %xmm0, %xmm0 vpclmulqdq $1, %xmm0, %xmm11, %xmm1 vpclmulqdq $16, %xmm0, %xmm11, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $0, %xmm0, %xmm11, %xmm2 vpclmulqdq $17, %xmm0, %xmm11, %xmm0 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpbroadcastq .LCPI1_28(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpxor 384(%rsp), %xmm9, %xmm3 vaesenc %xmm12, %xmm3, %xmm3 vaesenc 288(%rsp), %xmm3, %xmm3 vaesenc 272(%rsp), %xmm3, %xmm3 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm6, %xmm3, %xmm3 vaesenc 240(%rsp), %xmm3, %xmm3 vaesenc %xmm14, %xmm3, %xmm3 vaesenc 256(%rsp), %xmm3, %xmm3 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm15, %xmm3, %xmm3 vaesenc %xmm7, %xmm3, %xmm3 vaesenc 224(%rsp), %xmm3, %xmm3 vaesenc %xmm5, %xmm3, %xmm3 vaesenclast 208(%rsp), %xmm3, %xmm3 vpshufb .LCPI1_25(%rip), %xmm1, %xmm1 vpshufb .LCPI1_26(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpshufb .LCPI1_15(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vmovdqu %xmm0, 32(%r12) movl $1, %eax .LBB1_49: addq $456, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end1: .size haberdashery_aes256gcmdndkv2kc_broadwell_encrypt, .Lfunc_end1-haberdashery_aes256gcmdndkv2kc_broadwell_encrypt .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 0 .LCPI2_1: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 224 .LCPI2_2: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 225 .LCPI2_3: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 226 .LCPI2_4: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 227 .LCPI2_5: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 228 .LCPI2_6: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI2_7: .quad 4294967297 .quad 4294967297 .LCPI2_14: .quad 274877907008 .quad 274877907008 .LCPI2_15: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_16: .zero 8 .quad -4467570830351532032 .LCPI2_17: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_18: .long 1 .long 0 .long 0 .long 0 .LCPI2_19: .long 2 .long 0 .long 0 .long 0 .LCPI2_20: .long 3 .long 0 .long 0 .long 0 .LCPI2_21: .long 4 .long 0 .long 0 .long 0 .LCPI2_22: .long 5 .long 0 .long 0 .long 0 .LCPI2_23: .long 6 .long 0 .long 0 .long 0 .LCPI2_24: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI2_25: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI2_26: .zero 16 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI2_8: .long 0x00000002 .LCPI2_9: .long 0x0c0f0e0d .LCPI2_10: .long 0x00000004 .LCPI2_11: .long 0x00000008 .LCPI2_12: .long 0x00000010 .LCPI2_13: .long 0x00000020 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI2_27: .quad -4467570830351532032 .section .text.haberdashery_aes256gcmdndkv2kc_broadwell_decrypt,"ax",@progbits .globl haberdashery_aes256gcmdndkv2kc_broadwell_decrypt .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2kc_broadwell_decrypt,@function haberdashery_aes256gcmdndkv2kc_broadwell_decrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $520, %rsp .cfi_def_cfa_offset 576 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 576(%rsp), %r15 xorl %eax, %eax cmpq 608(%rsp), %r15 jne .LBB2_45 movq %r15, %r10 shrq $5, %r10 cmpq $2147483646, %r10 ja .LBB2_45 movabsq $2305843009213693950, %r10 cmpq %r10, %r8 ja .LBB2_45 cmpq $24, %rdx jne .LBB2_45 cmpq $48, 592(%rsp) jne .LBB2_45 vmovdqu (%rsi), %xmm0 vmovdqa %xmm0, 336(%rsp) vpand .LCPI2_0(%rip), %xmm0, %xmm0 vpxor (%rdi), %xmm0, %xmm12 movq 584(%rsp), %r12 vpxor .LCPI2_1(%rip), %xmm12, %xmm0 vmovdqa 16(%rdi), %xmm1 vmovdqa %xmm1, 16(%rsp) vmovdqa 32(%rdi), %xmm2 vmovdqa 48(%rdi), %xmm15 vmovdqa 64(%rdi), %xmm3 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm2, %xmm0, %xmm0 vmovdqa %xmm2, 32(%rsp) vaesenc %xmm15, %xmm0, %xmm0 vaesenc %xmm3, %xmm0, %xmm0 vmovdqa 80(%rdi), %xmm4 vaesenc %xmm4, %xmm0, %xmm0 vmovdqa 96(%rdi), %xmm5 vaesenc %xmm5, %xmm0, %xmm0 vmovdqa 112(%rdi), %xmm6 vaesenc %xmm6, %xmm0, %xmm0 vmovdqa 128(%rdi), %xmm7 vaesenc %xmm7, %xmm0, %xmm0 vmovdqa 144(%rdi), %xmm8 vaesenc %xmm8, %xmm0, %xmm0 vmovdqa 160(%rdi), %xmm9 vaesenc %xmm9, %xmm0, %xmm0 vmovdqa 176(%rdi), %xmm10 vaesenc %xmm10, %xmm0, %xmm0 vmovdqa 192(%rdi), %xmm11 vaesenc %xmm11, %xmm0, %xmm0 vmovdqa 208(%rdi), %xmm13 vaesenc %xmm13, %xmm0, %xmm0 vmovdqa 224(%rdi), %xmm14 vpxor .LCPI2_4(%rip), %xmm12, %xmm1 vaesenclast %xmm14, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) vmovdqa 16(%rsp), %xmm0 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm2, %xmm1, %xmm1 vaesenc %xmm15, %xmm1, %xmm1 vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm5, %xmm1, %xmm1 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm10, %xmm1, %xmm1 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm13, %xmm1, %xmm2 vmovdqa %xmm12, 368(%rsp) vpxor .LCPI2_5(%rip), %xmm12, %xmm1 vaesenclast %xmm14, %xmm2, %xmm2 vaesenc %xmm0, %xmm1, %xmm0 vaesenc 32(%rsp), %xmm0, %xmm0 vmovdqa %xmm15, 176(%rsp) vaesenc %xmm15, %xmm0, %xmm0 vmovdqa %xmm3, 64(%rsp) vaesenc %xmm3, %xmm0, %xmm0 vmovdqa %xmm4, 128(%rsp) vaesenc %xmm4, %xmm0, %xmm0 vmovdqa %xmm5, 160(%rsp) vaesenc %xmm5, %xmm0, %xmm0 vmovdqa %xmm6, 272(%rsp) vaesenc %xmm6, %xmm0, %xmm0 vmovdqa %xmm7, 256(%rsp) vaesenc %xmm7, %xmm0, %xmm0 vmovdqa %xmm8, 240(%rsp) vaesenc %xmm8, %xmm0, %xmm0 vmovdqa %xmm9, 224(%rsp) vaesenc %xmm9, %xmm0, %xmm0 vmovdqa %xmm10, 320(%rsp) vaesenc %xmm10, %xmm0, %xmm0 vmovdqa %xmm11, 384(%rsp) vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm13, %xmm0, %xmm0 vpxor (%r12), %xmm2, %xmm1 vaesenclast %xmm14, %xmm0, %xmm0 vmovdqa (%rsp), %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor 16(%r12), %xmm0, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vpor %xmm1, %xmm0, %xmm0 vptest %xmm0, %xmm0 jne .LBB2_45 vmovdqa 368(%rsp), %xmm1 vpxor .LCPI2_2(%rip), %xmm1, %xmm0 vpxor .LCPI2_3(%rip), %xmm1, %xmm1 vmovdqa 16(%rsp), %xmm2 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm2, %xmm1, %xmm1 vmovdqa 32(%rsp), %xmm2 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm2, %xmm1, %xmm1 vmovdqa 176(%rsp), %xmm2 vaesenc %xmm2, %xmm0, %xmm0 vmovdqa 64(%rsp), %xmm3 vaesenc %xmm3, %xmm0, %xmm0 vmovdqa 128(%rsp), %xmm4 vaesenc %xmm4, %xmm0, %xmm0 vmovdqa 160(%rsp), %xmm5 vaesenc %xmm5, %xmm0, %xmm0 vmovdqa 272(%rsp), %xmm6 vaesenc %xmm6, %xmm0, %xmm0 vmovdqa 256(%rsp), %xmm7 vaesenc %xmm7, %xmm0, %xmm0 vmovdqa 240(%rsp), %xmm8 vaesenc %xmm8, %xmm0, %xmm0 vmovdqa 224(%rsp), %xmm9 vaesenc %xmm9, %xmm0, %xmm0 vmovdqa 320(%rsp), %xmm10 vaesenc %xmm10, %xmm0, %xmm0 vmovdqa 384(%rsp), %xmm11 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm13, %xmm0, %xmm0 vaesenclast %xmm14, %xmm0, %xmm0 vaesenc %xmm2, %xmm1, %xmm1 vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm5, %xmm1, %xmm1 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm10, %xmm1, %xmm1 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm13, %xmm1, %xmm1 vaesenclast %xmm14, %xmm1, %xmm1 vmovdqa (%rsp), %xmm2 vpxor %xmm2, %xmm0, %xmm13 vpxor %xmm2, %xmm1, %xmm9 vpslldq $4, %xmm13, %xmm0 vpslldq $8, %xmm13, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm13, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpbroadcastd .LCPI2_9(%rip), %xmm1 vpshufb %xmm1, %xmm9, %xmm2 vaesenclast .LCPI2_7(%rip), %xmm2, %xmm2 vpxor %xmm0, %xmm13, %xmm0 vpxor %xmm0, %xmm2, %xmm7 vaesenc %xmm9, %xmm13, %xmm2 vpslldq $4, %xmm9, %xmm0 vpslldq $8, %xmm9, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpslldq $12, %xmm9, %xmm3 vpxor %xmm3, %xmm0, %xmm3 vpshufd $255, %xmm7, %xmm4 vpxor %xmm0, %xmm0, %xmm0 vaesenclast %xmm0, %xmm4, %xmm4 vpxor %xmm3, %xmm9, %xmm3 vpxor %xmm3, %xmm4, %xmm8 vbroadcastss .LCPI2_8(%rip), %xmm4 vbroadcastss .LCPI2_9(%rip), %xmm3 vmovdqa %xmm7, 272(%rsp) #APP vaesenc %xmm7, %xmm2, %xmm2 vpslldq $4, %xmm7, %xmm5 vpslldq $8, %xmm7, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpslldq $12, %xmm7, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpxor %xmm7, %xmm5, %xmm5 vpshufb %xmm3, %xmm8, %xmm11 vaesenclast %xmm4, %xmm11, %xmm11 vpxor %xmm5, %xmm11, %xmm11 #NO_APP vmovdqa %xmm8, 48(%rsp) #APP vaesenc %xmm8, %xmm2, %xmm2 vpslldq $4, %xmm8, %xmm4 vpslldq $8, %xmm8, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm8, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm8, %xmm4 vpshufd $255, %xmm11, %xmm12 vaesenclast %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm12, %xmm12 #NO_APP vbroadcastss .LCPI2_10(%rip), %xmm4 vmovaps %xmm11, 112(%rsp) #APP vaesenc %xmm11, %xmm2, %xmm2 vpslldq $4, %xmm11, %xmm5 vpslldq $8, %xmm11, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpslldq $12, %xmm11, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpxor %xmm5, %xmm11, %xmm5 vpshufb %xmm3, %xmm12, %xmm7 vaesenclast %xmm4, %xmm7, %xmm7 vpxor %xmm5, %xmm7, %xmm7 #NO_APP vmovaps %xmm12, 256(%rsp) #APP vaesenc %xmm12, %xmm2, %xmm2 vpslldq $4, %xmm12, %xmm4 vpslldq $8, %xmm12, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm12, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm12, %xmm4 vpshufd $255, %xmm7, %xmm11 vaesenclast %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm11, %xmm11 #NO_APP vbroadcastss .LCPI2_11(%rip), %xmm4 vmovaps %xmm7, 240(%rsp) #APP vaesenc %xmm7, %xmm2, %xmm2 vpslldq $4, %xmm7, %xmm5 vpslldq $8, %xmm7, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpslldq $12, %xmm7, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpxor %xmm7, %xmm5, %xmm5 vpshufb %xmm3, %xmm11, %xmm8 vaesenclast %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm8, %xmm8 #NO_APP vmovaps %xmm11, 96(%rsp) #APP vaesenc %xmm11, %xmm2, %xmm2 vpslldq $4, %xmm11, %xmm4 vpslldq $8, %xmm11, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm11, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm11, %xmm4 vpshufd $255, %xmm8, %xmm7 vaesenclast %xmm0, %xmm7, %xmm7 vpxor %xmm4, %xmm7, %xmm7 #NO_APP vbroadcastss .LCPI2_12(%rip), %xmm4 vmovaps %xmm8, 176(%rsp) #APP vaesenc %xmm8, %xmm2, %xmm2 vpslldq $4, %xmm8, %xmm5 vpslldq $8, %xmm8, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpslldq $12, %xmm8, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpxor %xmm5, %xmm8, %xmm5 vpshufb %xmm3, %xmm7, %xmm10 vaesenclast %xmm4, %xmm10, %xmm10 vpxor %xmm5, %xmm10, %xmm10 #NO_APP #APP vaesenc %xmm7, %xmm2, %xmm2 vpslldq $4, %xmm7, %xmm4 vpslldq $8, %xmm7, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm7, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm7, %xmm4, %xmm4 vpshufd $255, %xmm10, %xmm14 vaesenclast %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm14, %xmm14 #NO_APP vbroadcastss .LCPI2_13(%rip), %xmm4 #APP vaesenc %xmm10, %xmm2, %xmm2 vpslldq $4, %xmm10, %xmm5 vpslldq $8, %xmm10, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpslldq $12, %xmm10, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpxor %xmm5, %xmm10, %xmm5 vpshufb %xmm3, %xmm14, %xmm15 vaesenclast %xmm4, %xmm15, %xmm15 vpxor %xmm5, %xmm15, %xmm15 #NO_APP vmovdqa %xmm14, %xmm6 vpslldq $4, %xmm14, %xmm3 vpunpcklqdq %xmm14, %xmm0, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vinsertps $55, %xmm14, %xmm0, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpshufd $255, %xmm15, %xmm4 vaesenclast %xmm0, %xmm4, %xmm4 vpxor %xmm3, %xmm14, %xmm3 vpxor %xmm3, %xmm4, %xmm5 vpslldq $4, %xmm15, %xmm3 vpunpcklqdq %xmm15, %xmm0, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vinsertps $55, %xmm15, %xmm0, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpshufb %xmm1, %xmm5, %xmm1 vaesenclast .LCPI2_14(%rip), %xmm1, %xmm1 vpxor %xmm3, %xmm15, %xmm3 vpxor %xmm3, %xmm1, %xmm4 vaesenc %xmm14, %xmm2, %xmm1 vmovaps %xmm15, 192(%rsp) vaesenc %xmm15, %xmm1, %xmm1 vmovdqa %xmm5, 304(%rsp) vaesenc %xmm5, %xmm1, %xmm1 vaesenclast %xmm4, %xmm1, %xmm1 vpshufb .LCPI2_15(%rip), %xmm1, %xmm1 vpsrlq $63, %xmm1, %xmm2 vpaddq %xmm1, %xmm1, %xmm1 vpshufd $78, %xmm2, %xmm3 vpor %xmm3, %xmm1, %xmm1 vpblendd $12, %xmm2, %xmm0, %xmm0 vpsllq $63, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpsllq $62, %xmm0, %xmm2 vpsllq $57, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpxor %xmm0, %xmm1, %xmm12 vpclmulqdq $0, %xmm12, %xmm12, %xmm0 vpbroadcastq .LCPI2_27(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $17, %xmm12, %xmm12, %xmm1 vpshufd $78, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm5 vpclmulqdq $16, %xmm12, %xmm5, %xmm0 vpclmulqdq $1, %xmm12, %xmm5, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm12, %xmm5, %xmm1 vpslldq $8, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm0, %xmm0 vpclmulqdq $17, %xmm12, %xmm5, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpshufd $78, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm11 vpclmulqdq $0, %xmm11, %xmm11, %xmm0 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $17, %xmm11, %xmm11, %xmm1 vpshufd $78, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vmovdqa %xmm0, 448(%rsp) vpclmulqdq $0, %xmm5, %xmm5, %xmm0 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $17, %xmm5, %xmm5, %xmm1 vpshufd $78, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm14 vpclmulqdq $16, %xmm12, %xmm14, %xmm0 vpclmulqdq $1, %xmm12, %xmm14, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm12, %xmm14, %xmm1 vpslldq $8, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm0, %xmm0 vpclmulqdq $17, %xmm12, %xmm14, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpshufd $78, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vmovdqa 336(%rsp), %xmm2 vpextrb $15, %xmm2, %edx vpclmulqdq $16, %xmm3, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm8 movzbl 23(%rsi), %edi movzbl 17(%rsi), %r10d movzbl 16(%rsi), %r11d shll $8, %r11d orl %edx, %r11d shll $16, %r10d orl %r11d, %r10d movzbl 18(%rsi), %edx shll $24, %edx orl %r10d, %edx vmovd %edx, %xmm0 vpinsrd $1, 19(%rsi), %xmm0, %xmm0 vpinsrd $2, %edi, %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm0 vmovdqa %xmm0, 400(%rsp) testq %r8, %r8 vmovdqa %xmm4, 224(%rsp) vmovdqa %xmm12, 144(%rsp) vmovdqa %xmm5, 352(%rsp) vmovdqa %xmm11, 432(%rsp) vmovdqa %xmm14, 416(%rsp) vmovdqa %xmm13, 32(%rsp) vmovdqa %xmm9, 160(%rsp) vmovdqa %xmm7, 128(%rsp) vmovdqa %xmm10, 64(%rsp) vmovdqa %xmm6, 208(%rsp) vpxor %xmm4, %xmm4, %xmm4 je .LBB2_38 cmpq $96, %r8 jb .LBB2_8 vmovdqu 32(%rcx), %xmm1 vmovdqu 48(%rcx), %xmm2 vmovdqu 64(%rcx), %xmm3 vmovdqu 80(%rcx), %xmm4 vmovdqa .LCPI2_15(%rip), %xmm9 vpshufb %xmm9, %xmm1, %xmm5 vpshufb %xmm9, %xmm2, %xmm1 vpshufb %xmm9, %xmm3, %xmm2 vpshufb %xmm9, %xmm4, %xmm3 vpclmulqdq $0, %xmm3, %xmm12, %xmm4 vpclmulqdq $1, %xmm3, %xmm12, %xmm6 vpclmulqdq $16, %xmm3, %xmm12, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm12, %xmm3 vmovdqa 352(%rsp), %xmm0 vpclmulqdq $0, %xmm2, %xmm0, %xmm7 vpxor %xmm4, %xmm7, %xmm4 vpclmulqdq $1, %xmm2, %xmm0, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm2, %xmm2 vpclmulqdq $0, %xmm1, %xmm11, %xmm3 vpclmulqdq $1, %xmm1, %xmm11, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm14, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $16, %xmm1, %xmm11, %xmm7 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $1, %xmm5, %xmm14, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm5, %xmm14, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vmovdqu (%rcx), %xmm6 vpclmulqdq $17, %xmm5, %xmm14, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vmovdqu 16(%rcx), %xmm5 vpshufb %xmm9, %xmm6, %xmm6 vpshufb %xmm9, %xmm5, %xmm5 vpclmulqdq $17, %xmm1, %xmm11, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $0, %xmm5, %xmm8, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $1, %xmm5, %xmm8, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm5, %xmm8, %xmm4 vpclmulqdq $17, %xmm5, %xmm8, %xmm5 vpxor %xmm5, %xmm1, %xmm5 vmovdqa 448(%rsp), %xmm0 vpclmulqdq $0, %xmm6, %xmm0, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $1, %xmm6, %xmm0, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm6, %xmm0, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpclmulqdq $17, %xmm6, %xmm0, %xmm3 vpxor %xmm3, %xmm5, %xmm3 addq $96, %rcx leaq -96(%r8), %rsi cmpq $96, %rsi jb .LBB2_12 vmovdqa %xmm0, %xmm14 vmovdqa 144(%rsp), %xmm12 vmovdqa 352(%rsp), %xmm15 vmovdqa 432(%rsp), %xmm11 vmovdqa 416(%rsp), %xmm10 vmovdqa %xmm9, %xmm13 .p2align 4, 0x90 .LBB2_23: vmovdqu (%rcx), %xmm4 vmovdqu 32(%rcx), %xmm5 vmovdqu 48(%rcx), %xmm6 vmovdqu 64(%rcx), %xmm7 vmovdqa %xmm8, %xmm0 vmovdqu 80(%rcx), %xmm8 vpslldq $8, %xmm2, %xmm9 vpxor %xmm1, %xmm9, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpbroadcastq .LCPI2_27(%rip), %xmm9 vpclmulqdq $16, %xmm9, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm9, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpshufb %xmm13, %xmm4, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpxor %xmm3, %xmm1, %xmm3 vpshufb %xmm13, %xmm5, %xmm1 vpshufb %xmm13, %xmm6, %xmm2 vpshufb %xmm13, %xmm7, %xmm4 vpshufb %xmm13, %xmm8, %xmm5 vpclmulqdq $0, %xmm5, %xmm12, %xmm6 vpclmulqdq $1, %xmm5, %xmm12, %xmm7 vpclmulqdq $16, %xmm5, %xmm12, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm5, %xmm12, %xmm5 vpclmulqdq $0, %xmm4, %xmm15, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $1, %xmm4, %xmm15, %xmm8 vpclmulqdq $16, %xmm4, %xmm15, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm4, %xmm15, %xmm4 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $0, %xmm2, %xmm11, %xmm5 vpclmulqdq $1, %xmm2, %xmm11, %xmm8 vpclmulqdq $16, %xmm2, %xmm11, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpclmulqdq $0, %xmm1, %xmm10, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $1, %xmm1, %xmm10, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vmovdqa %xmm0, %xmm8 vpclmulqdq $17, %xmm2, %xmm11, %xmm2 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm1, %xmm10, %xmm7 vpxor %xmm7, %xmm2, %xmm2 vmovdqu 16(%rcx), %xmm7 vpshufb %xmm13, %xmm7, %xmm7 vpclmulqdq $16, %xmm1, %xmm10, %xmm1 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $0, %xmm7, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $1, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm1, %xmm1 vpclmulqdq $16, %xmm7, %xmm0, %xmm5 vpxor %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm6, %xmm5 vpclmulqdq $17, %xmm7, %xmm0, %xmm1 vpxor %xmm1, %xmm2, %xmm6 vpclmulqdq $0, %xmm3, %xmm14, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $1, %xmm3, %xmm14, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm3, %xmm14, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $17, %xmm3, %xmm14, %xmm3 vpxor %xmm3, %xmm6, %xmm3 addq $96, %rcx addq $-96, %rsi cmpq $95, %rsi ja .LBB2_23 jmp .LBB2_24 .LBB2_38: xorl %r8d, %r8d testq %r15, %r15 vmovdqa 48(%rsp), %xmm5 vmovdqa 112(%rsp), %xmm15 vmovdqa 96(%rsp), %xmm6 jne .LBB2_28 jmp .LBB2_39 .LBB2_8: movq %r8, %rsi vmovdqa 48(%rsp), %xmm5 vmovdqa 112(%rsp), %xmm15 vmovdqa 96(%rsp), %xmm6 cmpq $16, %rsi jae .LBB2_13 .LBB2_10: movq %rsi, %rdx testq %rdx, %rdx jne .LBB2_25 jmp .LBB2_20 .LBB2_12: vmovdqa 144(%rsp), %xmm12 .LBB2_24: vpslldq $8, %xmm2, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpsrldq $8, %xmm2, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpbroadcastq .LCPI2_27(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $16, %xmm3, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm4 vmovdqa 64(%rsp), %xmm10 vmovdqa 48(%rsp), %xmm5 vmovdqa 112(%rsp), %xmm15 vmovdqa 96(%rsp), %xmm6 vmovdqa 128(%rsp), %xmm7 cmpq $16, %rsi jb .LBB2_10 .LBB2_13: leaq -16(%rsi), %rdx testb $16, %dl je .LBB2_14 cmpq $16, %rdx jae .LBB2_16 .LBB2_19: testq %rdx, %rdx je .LBB2_20 .LBB2_25: vmovdqa %xmm4, 16(%rsp) vmovdqa %xmm8, 288(%rsp) movq %r9, %rbx vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 80(%rsp) leaq 80(%rsp), %rdi movq %rcx, %rsi movq %r8, %r14 callq *memcpy@GOTPCREL(%rip) movq %r14, %r8 vmovdqa 80(%rsp), %xmm0 shlq $3, %r8 testq %r15, %r15 je .LBB2_46 movabsq $-68719476704, %rax leaq (%r15,%rax), %rcx incq %rax cmpq %rax, %rcx movl $0, %eax vmovdqa 48(%rsp), %xmm5 vmovdqa 112(%rsp), %xmm15 vmovdqa 96(%rsp), %xmm6 vmovdqa 144(%rsp), %xmm12 vmovdqa 288(%rsp), %xmm8 vmovdqa 16(%rsp), %xmm1 jb .LBB2_45 movq %rbx, %r9 vpshufb .LCPI2_15(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm0, %xmm12, %xmm1 vpclmulqdq $1, %xmm0, %xmm12, %xmm2 vpclmulqdq $16, %xmm0, %xmm12, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm12, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpbroadcastq .LCPI2_27(%rip), %xmm3 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm4 jmp .LBB2_28 .LBB2_14: vmovdqu (%rcx), %xmm0 addq $16, %rcx vpshufb .LCPI2_15(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm4, %xmm0 vpclmulqdq $0, %xmm0, %xmm12, %xmm1 vpclmulqdq $1, %xmm0, %xmm12, %xmm2 vpclmulqdq $16, %xmm0, %xmm12, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm12, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpbroadcastq .LCPI2_27(%rip), %xmm3 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm4 movq %rdx, %rsi cmpq $16, %rdx jb .LBB2_19 .LBB2_16: vmovdqa %xmm8, 288(%rsp) vmovdqa %xmm7, %xmm8 vmovdqa .LCPI2_15(%rip), %xmm0 vmovdqa %xmm12, %xmm10 vmovdqa %xmm3, %xmm12 .p2align 4, 0x90 .LBB2_17: vmovdqu (%rcx), %xmm1 vmovdqu 16(%rcx), %xmm2 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $0, %xmm1, %xmm10, %xmm3 vpclmulqdq $1, %xmm1, %xmm10, %xmm4 vpclmulqdq $16, %xmm1, %xmm10, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm1, %xmm10, %xmm1 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpsrldq $8, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $16, %xmm12, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm12, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 addq $32, %rcx addq $-32, %rsi vpshufb %xmm0, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $0, %xmm1, %xmm10, %xmm2 vpclmulqdq $1, %xmm1, %xmm10, %xmm3 vpclmulqdq $16, %xmm1, %xmm10, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm10, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm12, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm12, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm4 cmpq $15, %rsi ja .LBB2_17 movq %rsi, %rdx vmovdqa %xmm12, %xmm3 vmovdqa %xmm10, %xmm12 vmovdqa 48(%rsp), %xmm5 vmovdqa %xmm8, %xmm7 vmovdqa 288(%rsp), %xmm8 vmovdqa 64(%rsp), %xmm10 testq %rdx, %rdx jne .LBB2_25 .LBB2_20: shlq $3, %r8 testq %r15, %r15 je .LBB2_39 movabsq $-68719476704, %rcx leaq (%r15,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB2_45 .LBB2_28: vmovdqa 400(%rsp), %xmm0 vpshufb .LCPI2_17(%rip), %xmm0, %xmm0 movq 600(%rsp), %rax vpaddd .LCPI2_18(%rip), %xmm0, %xmm3 movq %r15, %rbx cmpq $96, %r15 jb .LBB2_29 vmovdqa %xmm8, 288(%rsp) vmovdqa 32(%rsp), %xmm13 .p2align 4, 0x90 .LBB2_32: vmovdqa %xmm3, (%rsp) vmovdqu (%r9), %xmm7 vmovdqa %xmm7, 320(%rsp) vmovups 32(%r9), %xmm1 vmovaps %xmm1, 16(%rsp) vmovdqu 48(%r9), %xmm11 vmovdqa %xmm11, 480(%rsp) vmovdqa %xmm4, %xmm9 vmovdqu 64(%r9), %xmm4 vmovdqa %xmm4, 384(%rsp) vmovdqu 80(%r9), %xmm8 vmovdqa %xmm8, 336(%rsp) vmovdqa .LCPI2_15(%rip), %xmm12 vmovdqa (%rsp), %xmm0 vpshufb %xmm12, %xmm0, %xmm0 vmovdqa (%rsp), %xmm1 vpaddd .LCPI2_18(%rip), %xmm1, %xmm1 vpshufb %xmm12, %xmm1, %xmm1 vmovdqa (%rsp), %xmm2 vpaddd .LCPI2_19(%rip), %xmm2, %xmm2 vpshufb %xmm12, %xmm2, %xmm2 vmovdqa (%rsp), %xmm3 vpaddd .LCPI2_20(%rip), %xmm3, %xmm3 vpshufb %xmm12, %xmm3, %xmm3 vmovdqa (%rsp), %xmm5 vpaddd .LCPI2_21(%rip), %xmm5, %xmm5 vpshufb %xmm12, %xmm5, %xmm5 vmovdqa (%rsp), %xmm6 vpaddd .LCPI2_22(%rip), %xmm6, %xmm6 vpshufb %xmm12, %xmm6, %xmm6 vpshufb %xmm12, %xmm7, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vmovdqa %xmm7, 368(%rsp) vpshufb %xmm12, %xmm8, %xmm10 vpxor %xmm0, %xmm13, %xmm14 vpxor %xmm1, %xmm13, %xmm15 vpxor %xmm2, %xmm13, %xmm1 vpxor %xmm3, %xmm13, %xmm2 vpxor %xmm5, %xmm13, %xmm3 vpxor 32(%rsp), %xmm6, %xmm13 vmovaps 160(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm13, %xmm13 #NO_APP vpxor %xmm5, %xmm5, %xmm5 vpxor %xmm6, %xmm6, %xmm6 vpxor %xmm7, %xmm7, %xmm7 vmovaps 144(%rsp), %xmm8 vmovaps 272(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm13, %xmm13 vpclmulqdq $16, %xmm8, %xmm10, %xmm0 vpxor %xmm0, %xmm5, %xmm5 vpclmulqdq $0, %xmm8, %xmm10, %xmm0 vpxor %xmm0, %xmm7, %xmm7 vpclmulqdq $17, %xmm8, %xmm10, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpclmulqdq $1, %xmm8, %xmm10, %xmm0 vpxor %xmm0, %xmm5, %xmm5 #NO_APP vpshufb %xmm12, %xmm4, %xmm0 vmovaps 48(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vmovaps 112(%rsp), %xmm8 vmovaps 352(%rsp), %xmm9 #APP vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm13, %xmm13 vpclmulqdq $16, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 vpclmulqdq $0, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm7, %xmm7 vpclmulqdq $17, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm6 vpclmulqdq $1, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 #NO_APP vpshufb %xmm12, %xmm11, %xmm0 vmovaps 256(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vmovaps 240(%rsp), %xmm8 vmovaps 432(%rsp), %xmm9 #APP vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm13, %xmm13 vpclmulqdq $16, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 vpclmulqdq $0, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm7, %xmm7 vpclmulqdq $17, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm6 vpclmulqdq $1, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 #NO_APP vmovdqa 16(%rsp), %xmm0 vpshufb %xmm12, %xmm0, %xmm0 vmovaps 96(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vmovaps 416(%rsp), %xmm8 vmovdqa 176(%rsp), %xmm11 #APP vaesenc %xmm11, %xmm14, %xmm14 vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm13, %xmm13 vpclmulqdq $16, %xmm8, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 vpclmulqdq $0, %xmm8, %xmm0, %xmm4 vpxor %xmm4, %xmm7, %xmm7 vpclmulqdq $17, %xmm8, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm6 vpclmulqdq $1, %xmm8, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 #NO_APP vmovdqu 16(%r9), %xmm0 vmovdqa %xmm0, 464(%rsp) vmovaps 128(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vpshufb %xmm12, %xmm0, %xmm4 vmovaps 64(%rsp), %xmm8 vmovaps 288(%rsp), %xmm12 #APP vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm13, %xmm13 vpclmulqdq $16, %xmm12, %xmm4, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $0, %xmm12, %xmm4, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $17, %xmm12, %xmm4, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $1, %xmm12, %xmm4, %xmm9 vpxor %xmm5, %xmm9, %xmm5 #NO_APP vmovdqa 224(%rsp), %xmm8 vmovaps 208(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vmovdqa 192(%rsp), %xmm12 vmovdqa 448(%rsp), %xmm9 vmovaps 368(%rsp), %xmm0 #APP vaesenc %xmm12, %xmm14, %xmm14 vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm13, %xmm13 vpclmulqdq $16, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 vpclmulqdq $0, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm7, %xmm7 vpclmulqdq $17, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm6 vpclmulqdq $1, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 #NO_APP vpxor %xmm12, %xmm12, %xmm12 vpunpcklqdq %xmm5, %xmm12, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpunpckhqdq %xmm12, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpbroadcastq .LCPI2_27(%rip), %xmm7 vpclmulqdq $16, %xmm7, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpshufd $78, %xmm4, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $16, %xmm7, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm5 vmovaps 304(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP #APP vaesenclast %xmm8, %xmm14, %xmm14 vaesenclast %xmm8, %xmm15, %xmm15 vaesenclast %xmm8, %xmm1, %xmm1 vaesenclast %xmm8, %xmm2, %xmm2 vaesenclast %xmm8, %xmm3, %xmm3 vaesenclast %xmm8, %xmm13, %xmm13 #NO_APP vpxor 320(%rsp), %xmm14, %xmm4 vpxor 464(%rsp), %xmm15, %xmm0 vpxor 16(%rsp), %xmm1, %xmm1 vpxor 480(%rsp), %xmm2, %xmm2 vxorps 384(%rsp), %xmm3, %xmm3 vmovdqu %xmm4, (%rax) vmovdqa %xmm5, %xmm4 vmovdqu %xmm0, 16(%rax) vmovdqu %xmm1, 32(%rax) vmovdqu %xmm2, 48(%rax) vmovups %xmm3, 64(%rax) vpxor 336(%rsp), %xmm13, %xmm0 vmovdqa 32(%rsp), %xmm13 vmovdqu %xmm0, 80(%rax) vmovdqa (%rsp), %xmm3 addq $96, %r9 addq $96, %rax addq $-96, %rbx vpaddd .LCPI2_23(%rip), %xmm3, %xmm3 cmpq $95, %rbx ja .LBB2_32 vmovdqa 48(%rsp), %xmm5 vmovdqa 112(%rsp), %xmm15 vmovdqa 96(%rsp), %xmm6 .LBB2_29: vmovdqa 192(%rsp), %xmm0 vmovdqa 304(%rsp), %xmm11 cmpq $16, %rbx vmovdqa 176(%rsp), %xmm13 movq %r8, %r13 jb .LBB2_30 vmovdqa 144(%rsp), %xmm10 vmovdqa %xmm3, %xmm1 vmovdqa 208(%rsp), %xmm14 vmovdqa 256(%rsp), %xmm12 vmovdqa 224(%rsp), %xmm7 vmovdqa 176(%rsp), %xmm13 .p2align 4, 0x90 .LBB2_35: vmovdqu (%r9), %xmm2 vmovdqa .LCPI2_15(%rip), %xmm3 vpshufb %xmm3, %xmm2, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $0, %xmm3, %xmm10, %xmm4 vmovdqa %xmm5, %xmm9 vpclmulqdq $1, %xmm3, %xmm10, %xmm5 vmovdqa %xmm6, %xmm8 vpclmulqdq $16, %xmm3, %xmm10, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $17, %xmm3, %xmm10, %xmm3 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpbroadcastq .LCPI2_27(%rip), %xmm6 vpclmulqdq $16, %xmm6, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpshufd $78, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vmovdqa %xmm9, %xmm5 vmovdqa 240(%rsp), %xmm9 vpclmulqdq $16, %xmm6, %xmm4, %xmm4 vmovdqa %xmm8, %xmm6 vpxor %xmm3, %xmm4, %xmm4 vpshufb .LCPI2_15(%rip), %xmm1, %xmm3 vpxor 32(%rsp), %xmm3, %xmm3 vaesenc 160(%rsp), %xmm3, %xmm3 vaesenc 272(%rsp), %xmm3, %xmm3 vaesenc %xmm5, %xmm3, %xmm3 vaesenc %xmm15, %xmm3, %xmm3 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm13, %xmm3, %xmm3 vaesenc 128(%rsp), %xmm3, %xmm3 vaesenc 64(%rsp), %xmm3, %xmm3 vaesenc %xmm14, %xmm3, %xmm3 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm11, %xmm3, %xmm3 vaesenclast %xmm7, %xmm3, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vmovdqu %xmm2, (%rax) leaq 16(%rax), %r14 addq $-16, %rbx addq $16, %r9 vpaddd .LCPI2_18(%rip), %xmm1, %xmm1 movq %r14, %rax cmpq $15, %rbx ja .LBB2_35 vmovdqa %xmm1, (%rsp) vmovdqa %xmm4, 16(%rsp) testq %rbx, %rbx je .LBB2_37 .LBB2_40: vpxor %xmm1, %xmm1, %xmm1 vmovdqa %xmm1, 80(%rsp) leaq 80(%rsp), %rdi movq memcpy@GOTPCREL(%rip), %rbp movq %r9, %rsi movq %rbx, %rdx callq *%rbp vmovdqa 80(%rsp), %xmm1 vmovdqa (%rsp), %xmm0 vpshufb .LCPI2_15(%rip), %xmm0, %xmm0 vpxor 32(%rsp), %xmm0, %xmm0 vaesenc 160(%rsp), %xmm0, %xmm0 vaesenc 272(%rsp), %xmm0, %xmm0 vaesenc 48(%rsp), %xmm0, %xmm0 vaesenc 112(%rsp), %xmm0, %xmm0 vaesenc 256(%rsp), %xmm0, %xmm0 vaesenc 240(%rsp), %xmm0, %xmm0 vaesenc 96(%rsp), %xmm0, %xmm0 vaesenc 176(%rsp), %xmm0, %xmm0 vaesenc 128(%rsp), %xmm0, %xmm0 vaesenc 64(%rsp), %xmm0, %xmm0 vaesenc 208(%rsp), %xmm0, %xmm0 vaesenc 192(%rsp), %xmm0, %xmm0 vaesenc 304(%rsp), %xmm0, %xmm0 vaesenclast 224(%rsp), %xmm0, %xmm0 vmovdqa %xmm1, 336(%rsp) vpxor %xmm1, %xmm0, %xmm0 vmovdqa %xmm0, 320(%rsp) vmovdqa %xmm0, 80(%rsp) leaq 80(%rsp), %rsi movq %r14, %rdi movq %rbx, %rdx callq *%rbp vmovups 32(%r12), %xmm0 vmovaps %xmm0, (%rsp) testq %r15, %r15 je .LBB2_41 vmovaps 336(%rsp), %xmm0 vmovaps %xmm0, 496(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 80(%rsp) leaq 80(%rsp), %rdi leaq 496(%rsp), %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) vmovdqa 80(%rsp), %xmm0 movq %r13, %r8 jmp .LBB2_43 .LBB2_30: movq %rax, %r14 vmovdqa %xmm3, %xmm1 vmovdqa 208(%rsp), %xmm14 vmovdqa %xmm1, (%rsp) vmovdqa %xmm4, 16(%rsp) testq %rbx, %rbx jne .LBB2_40 .LBB2_37: vmovdqa %xmm15, %xmm8 vmovdqu 32(%r12), %xmm1 vmovdqa %xmm1, (%rsp) movq %r13, %r8 vpbroadcastq .LCPI2_27(%rip), %xmm4 vmovdqa 144(%rsp), %xmm12 vmovdqa 160(%rsp), %xmm9 vmovdqa %xmm0, %xmm11 vmovdqa 128(%rsp), %xmm7 vmovdqa 64(%rsp), %xmm10 vmovdqa 16(%rsp), %xmm2 vmovdqa 32(%rsp), %xmm15 jmp .LBB2_44 .LBB2_46: vpshufb .LCPI2_15(%rip), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 vmovdqa 144(%rsp), %xmm12 vpclmulqdq $0, %xmm0, %xmm12, %xmm1 vpclmulqdq $1, %xmm0, %xmm12, %xmm2 vpclmulqdq $16, %xmm0, %xmm12, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm12, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI2_27(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm4 vmovdqa 48(%rsp), %xmm5 vmovdqa 112(%rsp), %xmm15 vmovdqa 96(%rsp), %xmm6 vmovdqa 128(%rsp), %xmm7 vmovdqa 64(%rsp), %xmm10 .LBB2_39: vmovdqu 32(%r12), %xmm0 vmovdqa %xmm0, (%rsp) vmovdqa %xmm4, %xmm2 vmovdqa %xmm3, %xmm4 vmovdqa 176(%rsp), %xmm13 vmovdqa %xmm15, %xmm8 vmovdqa 192(%rsp), %xmm11 vmovdqa 160(%rsp), %xmm9 vmovdqa 208(%rsp), %xmm14 vmovdqa 32(%rsp), %xmm15 jmp .LBB2_44 .LBB2_41: movq %r13, %r8 vmovdqa 320(%rsp), %xmm0 .LBB2_43: vpshufb .LCPI2_15(%rip), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 vmovdqa 144(%rsp), %xmm12 vpclmulqdq $0, %xmm0, %xmm12, %xmm1 vpclmulqdq $1, %xmm0, %xmm12, %xmm2 vpclmulqdq $16, %xmm0, %xmm12, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm12, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI2_27(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm4, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm2 vmovdqa 32(%rsp), %xmm15 vmovdqa 160(%rsp), %xmm9 vmovdqa 48(%rsp), %xmm5 vmovdqa 112(%rsp), %xmm8 vmovdqa 96(%rsp), %xmm6 vmovdqa 176(%rsp), %xmm13 vmovdqa 128(%rsp), %xmm7 vmovdqa 64(%rsp), %xmm10 vmovdqa 208(%rsp), %xmm14 vmovdqa 192(%rsp), %xmm11 .LBB2_44: shlq $3, %r15 vmovq %r8, %xmm0 vmovq %r15, %xmm1 vpunpcklqdq %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $1, %xmm0, %xmm12, %xmm1 vpclmulqdq $16, %xmm0, %xmm12, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $0, %xmm0, %xmm12, %xmm2 vpclmulqdq $17, %xmm0, %xmm12, %xmm0 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpxor 400(%rsp), %xmm15, %xmm3 vaesenc %xmm9, %xmm3, %xmm3 vaesenc 272(%rsp), %xmm3, %xmm3 vaesenc %xmm5, %xmm3, %xmm3 vaesenc %xmm8, %xmm3, %xmm3 vaesenc 256(%rsp), %xmm3, %xmm3 vaesenc 240(%rsp), %xmm3, %xmm3 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm13, %xmm3, %xmm3 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm14, %xmm3, %xmm3 vaesenc %xmm11, %xmm3, %xmm3 vaesenc 304(%rsp), %xmm3, %xmm3 vaesenclast 224(%rsp), %xmm3, %xmm3 vpshufb .LCPI2_24(%rip), %xmm1, %xmm1 vpshufb .LCPI2_25(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor (%rsp), %xmm1, %xmm1 vpshufb .LCPI2_15(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm3, %xmm0, %xmm0 xorl %eax, %eax vptest %xmm0, %xmm0 sete %al .LBB2_45: addq $520, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end2: .size haberdashery_aes256gcmdndkv2kc_broadwell_decrypt, .Lfunc_end2-haberdashery_aes256gcmdndkv2kc_broadwell_decrypt .cfi_endproc .section .text.haberdashery_aes256gcmdndkv2kc_broadwell_is_supported,"ax",@progbits .globl haberdashery_aes256gcmdndkv2kc_broadwell_is_supported .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2kc_broadwell_is_supported,@function haberdashery_aes256gcmdndkv2kc_broadwell_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $786729, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end3: .size haberdashery_aes256gcmdndkv2kc_broadwell_is_supported, .Lfunc_end3-haberdashery_aes256gcmdndkv2kc_broadwell_is_supported .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
67,750
asm/aes256gcm_haswell.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI0_1: .quad 4294967297 .quad 4294967297 .LCPI0_8: .quad 274877907008 .quad 274877907008 .LCPI0_9: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI0_10: .zero 8 .quad -4467570830351532032 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI0_2: .long 0x00000002 .LCPI0_3: .long 0x0c0f0e0d .LCPI0_4: .long 0x00000004 .LCPI0_5: .long 0x00000008 .LCPI0_6: .long 0x00000010 .LCPI0_7: .long 0x00000020 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_11: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_haswell_init,"ax",@progbits .globl haberdashery_aes256gcm_haswell_init .p2align 4, 0x90 .type haberdashery_aes256gcm_haswell_init,@function haberdashery_aes256gcm_haswell_init: .cfi_startproc cmpq $32, %rdx jne .LBB0_2 subq $24, %rsp .cfi_def_cfa_offset 32 vmovdqu (%rsi), %xmm4 vmovdqa %xmm4, (%rsp) vmovdqu 16(%rsi), %xmm5 vpslldq $4, %xmm4, %xmm0 vpslldq $8, %xmm4, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm4, %xmm2 vpbroadcastd .LCPI0_3(%rip), %xmm14 vpshufb %xmm14, %xmm5, %xmm3 vaesenclast .LCPI0_1(%rip), %xmm3, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpxor %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm1 vaesenc %xmm5, %xmm4, %xmm15 vpslldq $4, %xmm5, %xmm0 vpslldq $8, %xmm5, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpslldq $12, %xmm5, %xmm2 vmovdqa %xmm5, -16(%rsp) vpxor %xmm2, %xmm0, %xmm2 vmovdqa %xmm1, -32(%rsp) vpshufd $255, %xmm1, %xmm3 vpxor %xmm0, %xmm0, %xmm0 vaesenclast %xmm0, %xmm3, %xmm3 vpxor %xmm5, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm4 vmovdqa %xmm4, -48(%rsp) vbroadcastss .LCPI0_2(%rip), %xmm3 vbroadcastss .LCPI0_3(%rip), %xmm2 #APP vaesenc %xmm1, %xmm15, %xmm15 vpslldq $4, %xmm1, %xmm6 vpslldq $8, %xmm1, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpslldq $12, %xmm1, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpshufb %xmm2, %xmm4, %xmm5 vaesenclast %xmm3, %xmm5, %xmm5 vpxor %xmm6, %xmm5, %xmm5 #NO_APP vmovaps %xmm5, %xmm1 vmovaps %xmm5, -64(%rsp) #APP vaesenc %xmm4, %xmm15, %xmm15 vpslldq $4, %xmm4, %xmm3 vpslldq $8, %xmm4, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpslldq $12, %xmm4, %xmm6 vpxor %xmm6, %xmm3, %xmm3 vpxor %xmm4, %xmm3, %xmm3 vpshufd $255, %xmm1, %xmm5 vaesenclast %xmm0, %xmm5, %xmm5 vpxor %xmm3, %xmm5, %xmm5 #NO_APP vbroadcastss .LCPI0_4(%rip), %xmm3 vmovaps %xmm5, %xmm4 vmovaps %xmm5, -80(%rsp) #APP vaesenc %xmm1, %xmm15, %xmm15 vpslldq $4, %xmm1, %xmm7 vpslldq $8, %xmm1, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpslldq $12, %xmm1, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor %xmm1, %xmm7, %xmm7 vpshufb %xmm2, %xmm4, %xmm5 vaesenclast %xmm3, %xmm5, %xmm5 vpxor %xmm7, %xmm5, %xmm5 #NO_APP vmovaps %xmm5, %xmm1 vmovaps %xmm5, -96(%rsp) #APP vaesenc %xmm4, %xmm15, %xmm15 vpslldq $4, %xmm4, %xmm3 vpslldq $8, %xmm4, %xmm8 vpxor %xmm3, %xmm8, %xmm3 vpslldq $12, %xmm4, %xmm8 vpxor %xmm3, %xmm8, %xmm3 vpxor %xmm4, %xmm3, %xmm3 vpshufd $255, %xmm1, %xmm5 vaesenclast %xmm0, %xmm5, %xmm5 vpxor %xmm3, %xmm5, %xmm5 #NO_APP vbroadcastss .LCPI0_5(%rip), %xmm3 vmovaps %xmm5, -112(%rsp) #APP vaesenc %xmm1, %xmm15, %xmm15 vpslldq $4, %xmm1, %xmm9 vpslldq $8, %xmm1, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpslldq $12, %xmm1, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpxor %xmm1, %xmm9, %xmm9 vpshufb %xmm2, %xmm5, %xmm8 vaesenclast %xmm3, %xmm8, %xmm8 vpxor %xmm9, %xmm8, %xmm8 #NO_APP #APP vaesenc %xmm5, %xmm15, %xmm15 vpslldq $4, %xmm5, %xmm3 vpslldq $8, %xmm5, %xmm10 vpxor %xmm3, %xmm10, %xmm3 vpslldq $12, %xmm5, %xmm10 vpxor %xmm3, %xmm10, %xmm3 vpxor %xmm5, %xmm3, %xmm3 vpshufd $255, %xmm8, %xmm9 vaesenclast %xmm0, %xmm9, %xmm9 vpxor %xmm3, %xmm9, %xmm9 #NO_APP vbroadcastss .LCPI0_6(%rip), %xmm3 #APP vaesenc %xmm8, %xmm15, %xmm15 vpslldq $4, %xmm8, %xmm11 vpslldq $8, %xmm8, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpslldq $12, %xmm8, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm8, %xmm11, %xmm11 vpshufb %xmm2, %xmm9, %xmm10 vaesenclast %xmm3, %xmm10, %xmm10 vpxor %xmm11, %xmm10, %xmm10 #NO_APP #APP vaesenc %xmm9, %xmm15, %xmm15 vpslldq $4, %xmm9, %xmm3 vpslldq $8, %xmm9, %xmm12 vpxor %xmm3, %xmm12, %xmm3 vpslldq $12, %xmm9, %xmm12 vpxor %xmm3, %xmm12, %xmm3 vpxor %xmm3, %xmm9, %xmm3 vpshufd $255, %xmm10, %xmm11 vaesenclast %xmm0, %xmm11, %xmm11 vpxor %xmm3, %xmm11, %xmm11 #NO_APP vbroadcastss .LCPI0_7(%rip), %xmm3 #APP vaesenc %xmm10, %xmm15, %xmm15 vpslldq $4, %xmm10, %xmm13 vpslldq $8, %xmm10, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpslldq $12, %xmm10, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm2, %xmm11, %xmm12 vaesenclast %xmm3, %xmm12, %xmm12 vpxor %xmm13, %xmm12, %xmm12 #NO_APP vpslldq $4, %xmm11, %xmm1 vpunpcklqdq %xmm11, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vinsertps $55, %xmm11, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufd $255, %xmm12, %xmm2 vaesenclast %xmm0, %xmm2, %xmm2 vpxor %xmm1, %xmm11, %xmm1 vpxor %xmm1, %xmm2, %xmm13 vpslldq $4, %xmm12, %xmm1 vpunpcklqdq %xmm12, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vinsertps $55, %xmm12, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufb %xmm14, %xmm13, %xmm2 vaesenclast .LCPI0_8(%rip), %xmm2, %xmm2 vpxor %xmm1, %xmm12, %xmm1 vpxor %xmm1, %xmm2, %xmm2 vmovdqa %xmm2, -128(%rsp) vaesenc %xmm11, %xmm15, %xmm1 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm13, %xmm1, %xmm1 vaesenclast %xmm2, %xmm1, %xmm1 vpshufb .LCPI0_9(%rip), %xmm1, %xmm1 vpsrlq $63, %xmm1, %xmm2 vpaddq %xmm1, %xmm1, %xmm1 vpshufd $78, %xmm2, %xmm3 vpor %xmm3, %xmm1, %xmm1 vpblendd $12, %xmm2, %xmm0, %xmm0 vpsllq $63, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpsllq $62, %xmm0, %xmm2 vpsllq $57, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpxor %xmm0, %xmm1, %xmm15 vpclmulqdq $0, %xmm15, %xmm15, %xmm0 vpbroadcastq .LCPI0_11(%rip), %xmm5 vpclmulqdq $16, %xmm5, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $17, %xmm15, %xmm15, %xmm1 vpshufd $78, %xmm0, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm1 vpclmulqdq $16, %xmm15, %xmm1, %xmm0 vpclmulqdq $1, %xmm15, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $0, %xmm15, %xmm1, %xmm3 vpslldq $8, %xmm0, %xmm14 vpxor %xmm3, %xmm14, %xmm3 vpclmulqdq $16, %xmm5, %xmm3, %xmm14 vpshufd $78, %xmm3, %xmm3 vpclmulqdq $17, %xmm15, %xmm1, %xmm2 vpxor %xmm3, %xmm14, %xmm3 vpsrldq $8, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpshufd $78, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm5, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm6 vpclmulqdq $0, %xmm6, %xmm6, %xmm0 vpclmulqdq $16, %xmm5, %xmm0, %xmm3 vpclmulqdq $0, %xmm1, %xmm1, %xmm14 vpclmulqdq $16, %xmm5, %xmm14, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm3 vpshufd $78, %xmm14, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $17, %xmm1, %xmm1, %xmm2 vpshufd $78, %xmm0, %xmm14 vpxor %xmm2, %xmm14, %xmm2 vpclmulqdq $16, %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $17, %xmm6, %xmm6, %xmm4 vpshufd $78, %xmm3, %xmm14 vpclmulqdq $16, %xmm15, %xmm0, %xmm2 vpxor %xmm4, %xmm14, %xmm4 vpclmulqdq $1, %xmm15, %xmm0, %xmm14 vpxor %xmm2, %xmm14, %xmm2 vpclmulqdq $16, %xmm5, %xmm3, %xmm3 vpclmulqdq $0, %xmm15, %xmm0, %xmm14 vpslldq $8, %xmm2, %xmm7 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $16, %xmm5, %xmm7, %xmm14 vpxor %xmm3, %xmm4, %xmm3 vpshufd $78, %xmm7, %xmm4 vpxor %xmm4, %xmm14, %xmm4 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $17, %xmm15, %xmm0, %xmm7 vpxor %xmm2, %xmm7, %xmm2 vpclmulqdq $16, %xmm5, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpxor %xmm5, %xmm2, %xmm2 vmovaps (%rsp), %xmm4 vmovaps %xmm4, (%rdi) vmovaps -16(%rsp), %xmm4 vmovaps %xmm4, 16(%rdi) vmovaps -32(%rsp), %xmm4 vmovaps %xmm4, 32(%rdi) vmovaps -48(%rsp), %xmm4 vmovaps %xmm4, 48(%rdi) vmovaps -64(%rsp), %xmm4 vmovaps %xmm4, 64(%rdi) vmovaps -80(%rsp), %xmm4 vmovaps %xmm4, 80(%rdi) vmovaps -96(%rsp), %xmm4 vmovaps %xmm4, 96(%rdi) vmovaps -112(%rsp), %xmm4 vmovaps %xmm4, 112(%rdi) vmovaps %xmm8, 128(%rdi) vmovaps %xmm9, 144(%rdi) vmovaps %xmm10, 160(%rdi) vmovaps %xmm11, 176(%rdi) vmovaps %xmm12, 192(%rdi) vmovdqa %xmm13, 208(%rdi) vmovaps -128(%rsp), %xmm4 vmovaps %xmm4, 224(%rdi) vmovdqa %xmm15, 240(%rdi) vmovdqa %xmm1, 256(%rdi) vmovdqa %xmm6, 272(%rdi) vmovdqa %xmm0, 288(%rdi) vmovdqa %xmm2, 304(%rdi) vmovdqa %xmm3, 320(%rdi) addq $24, %rsp .cfi_def_cfa_offset 8 .LBB0_2: xorl %eax, %eax cmpq $32, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes256gcm_haswell_init, .Lfunc_end0-haberdashery_aes256gcm_haswell_init .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI1_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_1: .long 1 .long 0 .long 0 .long 0 .LCPI1_2: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_3: .zero 8 .quad -4467570830351532032 .LCPI1_4: .long 2 .long 0 .long 0 .long 0 .LCPI1_5: .long 3 .long 0 .long 0 .long 0 .LCPI1_6: .long 4 .long 0 .long 0 .long 0 .LCPI1_7: .long 5 .long 0 .long 0 .long 0 .LCPI1_8: .long 6 .long 0 .long 0 .long 0 .LCPI1_9: .long 7 .long 0 .long 0 .long 0 .LCPI1_10: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_11: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_12: .zero 16 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI1_13: .quad -4467570830351532032 .section .text.haberdashery_aes256gcm_haswell_encrypt,"ax",@progbits .globl haberdashery_aes256gcm_haswell_encrypt .p2align 4, 0x90 .type haberdashery_aes256gcm_haswell_encrypt,@function haberdashery_aes256gcm_haswell_encrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $456, %rsp .cfi_def_cfa_offset 512 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 512(%rsp), %r15 xorl %eax, %eax cmpq 528(%rsp), %r15 jne .LBB1_41 cmpq $16, 544(%rsp) setne %r10b movabsq $2305843009213693950, %r11 cmpq %r11, %r8 seta %r11b orb %r10b, %r11b jne .LBB1_41 movq %r15, %r10 shrq $5, %r10 cmpq $2147483647, %r10 setae %r10b cmpq $12, %rdx setne %dl orb %r10b, %dl jne .LBB1_41 vmovd (%rsi), %xmm0 vpinsrd $1, 4(%rsi), %xmm0, %xmm0 vpinsrd $2, 8(%rsi), %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm0 vmovdqa %xmm0, 144(%rsp) vpxor %xmm4, %xmm4, %xmm4 testq %r8, %r8 je .LBB1_20 cmpq $96, %r8 jb .LBB1_5 vmovdqu (%rcx), %xmm1 vmovdqu 16(%rcx), %xmm2 vmovdqu 32(%rcx), %xmm3 vmovdqu 48(%rcx), %xmm4 vmovdqu 64(%rcx), %xmm5 vmovdqu 80(%rcx), %xmm9 vmovdqa .LCPI1_2(%rip), %xmm0 vpshufb %xmm0, %xmm1, %xmm13 vpshufb %xmm0, %xmm2, %xmm8 vpshufb %xmm0, %xmm3, %xmm6 vpshufb %xmm0, %xmm9, %xmm3 vmovdqa 240(%rdi), %xmm1 vpclmulqdq $0, %xmm3, %xmm1, %xmm9 vpshufb %xmm0, %xmm4, %xmm10 vpclmulqdq $1, %xmm3, %xmm1, %xmm11 vpshufb %xmm0, %xmm5, %xmm5 vpclmulqdq $16, %xmm3, %xmm1, %xmm12 vmovdqa 256(%rdi), %xmm2 vpclmulqdq $17, %xmm3, %xmm1, %xmm7 vmovdqa 272(%rdi), %xmm4 vpclmulqdq $0, %xmm5, %xmm2, %xmm14 vmovdqa 288(%rdi), %xmm3 vpclmulqdq $1, %xmm5, %xmm2, %xmm15 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $16, %xmm5, %xmm2, %xmm12 vpxor %xmm9, %xmm14, %xmm9 vpclmulqdq $17, %xmm5, %xmm2, %xmm5 vpxor %xmm12, %xmm15, %xmm12 vpclmulqdq $0, %xmm10, %xmm4, %xmm14 vpxor %xmm12, %xmm11, %xmm11 vpclmulqdq $1, %xmm10, %xmm4, %xmm12 vpxor %xmm7, %xmm5, %xmm7 vpclmulqdq $16, %xmm10, %xmm4, %xmm15 vmovdqa 304(%rdi), %xmm5 vpclmulqdq $17, %xmm10, %xmm4, %xmm10 vpxor %xmm15, %xmm12, %xmm12 vpclmulqdq $0, %xmm6, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $1, %xmm6, %xmm3, %xmm15 vpxor %xmm14, %xmm9, %xmm9 vpclmulqdq $16, %xmm6, %xmm3, %xmm14 vpxor %xmm15, %xmm12, %xmm12 vpclmulqdq $17, %xmm6, %xmm3, %xmm6 vpxor %xmm12, %xmm11, %xmm11 vpclmulqdq $0, %xmm8, %xmm5, %xmm12 vpxor %xmm6, %xmm10, %xmm6 vpclmulqdq $1, %xmm8, %xmm5, %xmm10 vpxor %xmm6, %xmm7, %xmm6 vmovdqa %xmm6, (%rsp) vpclmulqdq $16, %xmm8, %xmm5, %xmm15 vmovdqa 320(%rdi), %xmm6 vpclmulqdq $0, %xmm13, %xmm6, %xmm7 vpxor %xmm10, %xmm14, %xmm10 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm7, %xmm12, %xmm7 vpxor %xmm7, %xmm9, %xmm9 vpclmulqdq $1, %xmm13, %xmm6, %xmm7 vpxor %xmm7, %xmm10, %xmm7 vpxor %xmm7, %xmm11, %xmm7 vpclmulqdq $16, %xmm13, %xmm6, %xmm10 vpxor %xmm7, %xmm10, %xmm10 vpclmulqdq $17, %xmm8, %xmm5, %xmm7 vpclmulqdq $17, %xmm13, %xmm6, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor (%rsp), %xmm7, %xmm8 addq $96, %rcx leaq -96(%r8), %rsi cmpq $96, %rsi jb .LBB1_19 vmovdqa %xmm6, (%rsp) vmovdqa %xmm5, %xmm6 vmovdqa %xmm3, %xmm5 vmovdqa %xmm2, %xmm3 .p2align 4, 0x90 .LBB1_18: vmovdqu (%rcx), %xmm12 vmovdqu 32(%rcx), %xmm13 vmovdqu 48(%rcx), %xmm11 vmovdqu 64(%rcx), %xmm14 vmovdqu 80(%rcx), %xmm15 vpslldq $8, %xmm10, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpsrldq $8, %xmm10, %xmm9 vpbroadcastq .LCPI1_13(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm7, %xmm10 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $16, %xmm2, %xmm7, %xmm10 vpxor %xmm9, %xmm8, %xmm8 vpshufd $78, %xmm7, %xmm7 vpshufb %xmm0, %xmm12, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpshufb %xmm0, %xmm15, %xmm12 vpclmulqdq $0, %xmm12, %xmm1, %xmm15 vpxor %xmm7, %xmm8, %xmm7 vmovdqa %xmm1, %xmm2 vmovdqa %xmm0, %xmm1 vpclmulqdq $1, %xmm12, %xmm2, %xmm0 vpxor %xmm7, %xmm10, %xmm8 vpclmulqdq $16, %xmm12, %xmm2, %xmm7 vpshufb %xmm1, %xmm13, %xmm9 vpclmulqdq $17, %xmm12, %xmm2, %xmm10 vpshufb %xmm1, %xmm14, %xmm12 vpclmulqdq $0, %xmm12, %xmm3, %xmm13 vpxor %xmm0, %xmm7, %xmm0 vpclmulqdq $1, %xmm12, %xmm3, %xmm7 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $16, %xmm12, %xmm3, %xmm14 vpshufb %xmm1, %xmm11, %xmm11 vpclmulqdq $17, %xmm12, %xmm3, %xmm12 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $0, %xmm11, %xmm4, %xmm14 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $1, %xmm11, %xmm4, %xmm7 vpxor %xmm10, %xmm12, %xmm10 vpclmulqdq $16, %xmm11, %xmm4, %xmm12 vpxor %xmm7, %xmm12, %xmm7 vpclmulqdq $0, %xmm9, %xmm5, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $17, %xmm11, %xmm4, %xmm11 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $1, %xmm9, %xmm5, %xmm13 vpxor %xmm7, %xmm13, %xmm7 vpclmulqdq $17, %xmm9, %xmm5, %xmm13 vpxor %xmm7, %xmm0, %xmm0 vpxor %xmm13, %xmm11, %xmm7 vmovdqu 16(%rcx), %xmm11 vpshufb %xmm1, %xmm11, %xmm11 vpclmulqdq $16, %xmm9, %xmm5, %xmm9 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $0, %xmm11, %xmm6, %xmm10 vpxor %xmm10, %xmm12, %xmm10 vpclmulqdq $1, %xmm11, %xmm6, %xmm12 vpxor %xmm12, %xmm9, %xmm9 vpclmulqdq $16, %xmm11, %xmm6, %xmm12 vpxor %xmm12, %xmm9, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $17, %xmm11, %xmm6, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vmovdqa (%rsp), %xmm11 vpclmulqdq $0, %xmm8, %xmm11, %xmm9 vpxor %xmm9, %xmm10, %xmm9 vpclmulqdq $1, %xmm8, %xmm11, %xmm10 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $16, %xmm8, %xmm11, %xmm10 vpxor %xmm0, %xmm10, %xmm10 vpclmulqdq $17, %xmm8, %xmm11, %xmm0 vpxor %xmm0, %xmm7, %xmm8 vmovdqa %xmm1, %xmm0 vmovdqa %xmm2, %xmm1 addq $96, %rcx addq $-96, %rsi cmpq $95, %rsi ja .LBB1_18 .LBB1_19: vpslldq $8, %xmm10, %xmm0 vpxor %xmm0, %xmm9, %xmm0 vpbroadcastq .LCPI1_13(%rip), %xmm1 vpclmulqdq $16, %xmm1, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpsrldq $8, %xmm10, %xmm2 vpclmulqdq $16, %xmm1, %xmm0, %xmm1 vpxor %xmm2, %xmm8, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpxor %xmm1, %xmm0, %xmm4 cmpq $16, %rsi jae .LBB1_7 jmp .LBB1_12 .LBB1_20: testq %r15, %r15 jne .LBB1_25 jmp .LBB1_40 .LBB1_5: movq %r8, %rsi cmpq $16, %rsi jb .LBB1_12 .LBB1_7: vmovdqa 240(%rdi), %xmm0 leaq -16(%rsi), %rdx testb $16, %dl je .LBB1_8 cmpq $16, %rdx jae .LBB1_10 .LBB1_13: testq %rdx, %rdx je .LBB1_21 .LBB1_14: vmovdqa %xmm4, 32(%rsp) movq %r9, %r14 movq %r8, %rbx movq %rdi, %r12 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 16(%rsp) leaq 16(%rsp), %rdi movq %rcx, %rsi callq *memcpy@GOTPCREL(%rip) vmovdqa 16(%rsp), %xmm0 testq %r15, %r15 je .LBB1_15 movabsq $-68719476704, %rax leaq (%r15,%rax), %rcx incq %rax cmpq %rax, %rcx movl $0, %eax vmovdqa 32(%rsp), %xmm2 jb .LBB1_41 movq %r12, %rdi movq %rbx, %r8 movq %r14, %r9 vmovdqa 240(%r12), %xmm1 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI1_13(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm4 jmp .LBB1_25 .LBB1_8: vmovdqu (%rcx), %xmm1 vpshufb .LCPI1_2(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpbroadcastq .LCPI1_13(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 addq $16, %rcx vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpsrldq $8, %xmm3, %xmm3 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpxor %xmm3, %xmm1, %xmm1 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm4 movq %rdx, %rsi cmpq $16, %rdx jb .LBB1_13 .LBB1_10: vmovdqa .LCPI1_2(%rip), %xmm1 vpbroadcastq .LCPI1_13(%rip), %xmm2 .p2align 4, 0x90 .LBB1_11: vmovdqu (%rcx), %xmm3 vpshufb %xmm1, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm4 vpclmulqdq $1, %xmm3, %xmm0, %xmm5 vmovdqu 16(%rcx), %xmm6 vpclmulqdq $16, %xmm3, %xmm0, %xmm7 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm5, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpshufb %xmm1, %xmm6, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm4 addq $32, %rcx vpclmulqdq $1, %xmm3, %xmm0, %xmm5 addq $-32, %rsi vpclmulqdq $16, %xmm3, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm4 cmpq $15, %rsi ja .LBB1_11 .LBB1_12: movq %rsi, %rdx testq %rdx, %rdx jne .LBB1_14 .LBB1_21: testq %r15, %r15 je .LBB1_40 movabsq $-68719476704, %rcx leaq (%r15,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB1_41 .LBB1_25: vmovdqa 144(%rsp), %xmm0 vpshufb .LCPI1_0(%rip), %xmm0, %xmm1 movq 520(%rsp), %rdx vpaddd .LCPI1_1(%rip), %xmm1, %xmm0 cmpq $96, %r15 jb .LBB1_26 vmovdqa %xmm4, %xmm8 leaq 96(%r9), %rcx leaq 96(%rdx), %rax vmovdqa .LCPI1_2(%rip), %xmm9 vpshufb %xmm9, %xmm0, %xmm2 vpaddd .LCPI1_4(%rip), %xmm1, %xmm3 vpshufb %xmm9, %xmm3, %xmm3 vpaddd .LCPI1_5(%rip), %xmm1, %xmm4 vpshufb %xmm9, %xmm4, %xmm4 vpaddd .LCPI1_6(%rip), %xmm1, %xmm5 vpaddd .LCPI1_7(%rip), %xmm1, %xmm6 vpshufb %xmm9, %xmm5, %xmm5 vpshufb %xmm9, %xmm6, %xmm6 vpaddd .LCPI1_8(%rip), %xmm1, %xmm7 vpshufb %xmm9, %xmm7, %xmm7 vpaddd .LCPI1_9(%rip), %xmm1, %xmm0 vmovdqa (%rdi), %xmm10 vmovaps 16(%rdi), %xmm1 vmovaps 32(%rdi), %xmm12 vmovaps 48(%rdi), %xmm11 vpxor %xmm2, %xmm10, %xmm2 vpxor %xmm3, %xmm10, %xmm3 vpxor %xmm4, %xmm10, %xmm4 vpxor %xmm5, %xmm10, %xmm5 vpxor %xmm6, %xmm10, %xmm6 vpxor %xmm7, %xmm10, %xmm7 vmovaps %xmm1, 304(%rsp) #APP vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm4, %xmm4 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm6, %xmm6 vaesenc %xmm1, %xmm7, %xmm7 #NO_APP vmovaps %xmm12, 288(%rsp) #APP vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm12, %xmm6, %xmm6 vaesenc %xmm12, %xmm7, %xmm7 #NO_APP vmovaps %xmm11, 96(%rsp) #APP vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 #NO_APP vmovaps 64(%rdi), %xmm11 vmovaps %xmm11, 80(%rsp) #APP vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 #NO_APP vmovaps 80(%rdi), %xmm11 vmovaps %xmm11, 64(%rsp) #APP vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 #NO_APP vmovaps 96(%rdi), %xmm11 vmovaps %xmm11, 416(%rsp) #APP vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 #NO_APP vmovaps 112(%rdi), %xmm11 vmovaps %xmm11, 400(%rsp) #APP vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 #NO_APP vmovaps 128(%rdi), %xmm11 vmovaps %xmm11, 384(%rsp) #APP vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 #NO_APP vmovaps 144(%rdi), %xmm11 vmovaps %xmm11, 368(%rsp) #APP vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 #NO_APP vmovaps 160(%rdi), %xmm11 vmovaps %xmm11, 352(%rsp) #APP vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 #NO_APP vmovaps 176(%rdi), %xmm11 vmovaps %xmm11, 336(%rsp) #APP vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 #NO_APP vmovaps 192(%rdi), %xmm11 vmovaps %xmm11, 320(%rsp) #APP vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 #NO_APP vmovdqa 208(%rdi), %xmm11 vmovdqa %xmm11, %xmm12 #APP vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 #NO_APP vmovaps 224(%rdi), %xmm11 #APP vaesenclast %xmm11, %xmm2, %xmm2 vaesenclast %xmm11, %xmm3, %xmm3 vaesenclast %xmm11, %xmm4, %xmm4 vaesenclast %xmm11, %xmm5, %xmm5 vaesenclast %xmm11, %xmm6, %xmm6 vaesenclast %xmm11, %xmm7, %xmm7 #NO_APP vpxor (%r9), %xmm2, %xmm15 vpxor 16(%r9), %xmm3, %xmm3 vpxor 32(%r9), %xmm4, %xmm4 vpxor 48(%r9), %xmm5, %xmm5 vpxor 64(%r9), %xmm6, %xmm13 vpxor 80(%r9), %xmm7, %xmm14 vmovdqu %xmm15, (%rdx) vmovdqu %xmm3, 16(%rdx) vmovdqu %xmm4, 32(%rdx) vmovdqu %xmm5, 48(%rdx) vmovdqu %xmm13, 64(%rdx) leaq -96(%r15), %rbx vmovdqu %xmm14, 80(%rdx) cmpq $96, %rbx jb .LBB1_33 vmovaps 240(%rdi), %xmm2 vmovaps %xmm2, 272(%rsp) vmovaps 256(%rdi), %xmm2 vmovaps %xmm2, 256(%rsp) vmovaps 272(%rdi), %xmm2 vmovaps %xmm2, 240(%rsp) vmovaps 288(%rdi), %xmm2 vmovaps %xmm2, 224(%rsp) vmovaps 304(%rdi), %xmm2 vmovaps %xmm2, 208(%rsp) vmovdqa 320(%rdi), %xmm2 vmovdqa %xmm2, 192(%rsp) vmovdqa %xmm12, 176(%rsp) vmovaps %xmm11, 160(%rsp) .p2align 4, 0x90 .LBB1_35: vmovdqa %xmm5, 112(%rsp) vmovdqa %xmm4, 128(%rsp) vmovdqa %xmm3, 48(%rsp) vmovdqa %xmm0, (%rsp) vpshufb %xmm9, %xmm0, %xmm3 vmovdqa %xmm8, %xmm12 vpaddd .LCPI1_1(%rip), %xmm0, %xmm4 vpshufb %xmm9, %xmm4, %xmm4 vpaddd .LCPI1_4(%rip), %xmm0, %xmm5 vpshufb %xmm9, %xmm5, %xmm5 vpaddd .LCPI1_5(%rip), %xmm0, %xmm6 vpshufb %xmm9, %xmm6, %xmm6 vpaddd .LCPI1_6(%rip), %xmm0, %xmm7 vpshufb %xmm9, %xmm7, %xmm8 vpaddd .LCPI1_7(%rip), %xmm0, %xmm7 vmovdqa %xmm9, %xmm1 vpshufb %xmm9, %xmm7, %xmm9 vpshufb %xmm1, %xmm15, %xmm7 vpxor %xmm7, %xmm12, %xmm0 vmovdqa %xmm0, 32(%rsp) vpshufb %xmm1, %xmm14, %xmm0 vpxor %xmm3, %xmm10, %xmm15 vpxor %xmm4, %xmm10, %xmm3 vpxor %xmm5, %xmm10, %xmm4 vpxor %xmm6, %xmm10, %xmm5 vpxor %xmm8, %xmm10, %xmm6 vpxor %xmm9, %xmm10, %xmm14 vmovaps 304(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm15, %xmm15 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm4, %xmm4 vaesenc %xmm2, %xmm5, %xmm5 vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm14, %xmm14 #NO_APP vpxor %xmm8, %xmm8, %xmm8 vpxor %xmm12, %xmm12, %xmm12 vpxor %xmm9, %xmm9, %xmm9 vmovaps 272(%rsp), %xmm2 vmovaps 288(%rsp), %xmm11 #APP vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm14, %xmm14 vpclmulqdq $16, %xmm2, %xmm0, %xmm7 vpxor %xmm7, %xmm12, %xmm12 vpclmulqdq $0, %xmm2, %xmm0, %xmm7 vpxor %xmm7, %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm7 vpxor %xmm7, %xmm9, %xmm9 vpclmulqdq $1, %xmm2, %xmm0, %xmm7 vpxor %xmm7, %xmm12, %xmm12 #NO_APP vpshufb %xmm1, %xmm13, %xmm0 vmovaps 96(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm15, %xmm15 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm4, %xmm4 vaesenc %xmm2, %xmm5, %xmm5 vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm14, %xmm14 #NO_APP vmovaps 256(%rsp), %xmm2 vmovaps 80(%rsp), %xmm13 #APP vaesenc %xmm13, %xmm15, %xmm15 vaesenc %xmm13, %xmm3, %xmm3 vaesenc %xmm13, %xmm4, %xmm4 vaesenc %xmm13, %xmm5, %xmm5 vaesenc %xmm13, %xmm6, %xmm6 vaesenc %xmm13, %xmm14, %xmm14 vpclmulqdq $16, %xmm2, %xmm0, %xmm7 vpxor %xmm7, %xmm12, %xmm12 vpclmulqdq $0, %xmm2, %xmm0, %xmm7 vpxor %xmm7, %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm7 vpxor %xmm7, %xmm9, %xmm9 vpclmulqdq $1, %xmm2, %xmm0, %xmm7 vpxor %xmm7, %xmm12, %xmm12 #NO_APP vmovdqa 112(%rsp), %xmm0 vpshufb %xmm1, %xmm0, %xmm0 vmovaps 64(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm15, %xmm15 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm4, %xmm4 vaesenc %xmm2, %xmm5, %xmm5 vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm14, %xmm14 #NO_APP vmovaps 240(%rsp), %xmm2 vmovaps 416(%rsp), %xmm11 #APP vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm14, %xmm14 vpclmulqdq $16, %xmm2, %xmm0, %xmm7 vpxor %xmm7, %xmm12, %xmm12 vpclmulqdq $0, %xmm2, %xmm0, %xmm7 vpxor %xmm7, %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm7 vpxor %xmm7, %xmm9, %xmm9 vpclmulqdq $1, %xmm2, %xmm0, %xmm7 vpxor %xmm7, %xmm12, %xmm12 #NO_APP vmovdqa 128(%rsp), %xmm0 vpshufb %xmm1, %xmm0, %xmm0 vmovaps 400(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm15, %xmm15 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm4, %xmm4 vaesenc %xmm2, %xmm5, %xmm5 vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm14, %xmm14 #NO_APP vmovaps 224(%rsp), %xmm2 vmovaps 384(%rsp), %xmm11 #APP vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm14, %xmm14 vpclmulqdq $16, %xmm2, %xmm0, %xmm7 vpxor %xmm7, %xmm12, %xmm12 vpclmulqdq $0, %xmm2, %xmm0, %xmm7 vpxor %xmm7, %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm7 vpxor %xmm7, %xmm9, %xmm9 vpclmulqdq $1, %xmm2, %xmm0, %xmm7 vpxor %xmm7, %xmm12, %xmm12 #NO_APP vmovdqa 48(%rsp), %xmm0 vpshufb %xmm1, %xmm0, %xmm0 vmovaps 368(%rsp), %xmm2 #APP vaesenc %xmm2, %xmm15, %xmm15 vaesenc %xmm2, %xmm3, %xmm3 vaesenc %xmm2, %xmm4, %xmm4 vaesenc %xmm2, %xmm5, %xmm5 vaesenc %xmm2, %xmm6, %xmm6 vaesenc %xmm2, %xmm14, %xmm14 #NO_APP vmovaps 208(%rsp), %xmm7 vmovaps 352(%rsp), %xmm11 #APP vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm14, %xmm14 vpclmulqdq $16, %xmm7, %xmm0, %xmm2 vpxor %xmm2, %xmm12, %xmm12 vpclmulqdq $0, %xmm7, %xmm0, %xmm2 vpxor %xmm2, %xmm8, %xmm8 vpclmulqdq $17, %xmm7, %xmm0, %xmm2 vpxor %xmm2, %xmm9, %xmm9 vpclmulqdq $1, %xmm7, %xmm0, %xmm2 vpxor %xmm2, %xmm12, %xmm12 #NO_APP vmovaps 336(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm14, %xmm14 #NO_APP vmovdqa 192(%rsp), %xmm2 vmovaps 320(%rsp), %xmm7 vmovaps 32(%rsp), %xmm11 #APP vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 vaesenc %xmm7, %xmm6, %xmm6 vaesenc %xmm7, %xmm14, %xmm14 vpclmulqdq $16, %xmm2, %xmm11, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpclmulqdq $0, %xmm2, %xmm11, %xmm0 vpxor %xmm0, %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm11, %xmm0 vpxor %xmm0, %xmm9, %xmm9 vpclmulqdq $1, %xmm2, %xmm11, %xmm0 vpxor %xmm0, %xmm12, %xmm12 #NO_APP vpxor %xmm2, %xmm2, %xmm2 vpunpcklqdq %xmm12, %xmm2, %xmm0 vpxor %xmm0, %xmm8, %xmm0 vpunpckhqdq %xmm2, %xmm12, %xmm2 vpbroadcastq .LCPI1_13(%rip), %xmm8 vpclmulqdq $16, %xmm8, %xmm0, %xmm7 vpxor %xmm2, %xmm9, %xmm2 vmovdqa %xmm1, %xmm9 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm7, %xmm0 vpshufd $78, %xmm0, %xmm7 vpxor %xmm7, %xmm2, %xmm7 vpclmulqdq $16, %xmm8, %xmm0, %xmm0 vmovaps 176(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm4, %xmm4 vaesenc %xmm1, %xmm5, %xmm5 vaesenc %xmm1, %xmm6, %xmm6 vaesenc %xmm1, %xmm14, %xmm14 #NO_APP vmovaps 160(%rsp), %xmm1 #APP vaesenclast %xmm1, %xmm15, %xmm15 vaesenclast %xmm1, %xmm3, %xmm3 vaesenclast %xmm1, %xmm4, %xmm4 vaesenclast %xmm1, %xmm5, %xmm5 vaesenclast %xmm1, %xmm6, %xmm6 vaesenclast %xmm1, %xmm14, %xmm14 #NO_APP vpxor (%rcx), %xmm15, %xmm15 vpxor 16(%rcx), %xmm3, %xmm3 vpxor 32(%rcx), %xmm4, %xmm4 vpxor 48(%rcx), %xmm5, %xmm5 vpxor 64(%rcx), %xmm6, %xmm13 vpxor %xmm0, %xmm7, %xmm8 vmovdqa (%rsp), %xmm0 vpxor 80(%rcx), %xmm14, %xmm14 addq $96, %rcx vmovdqu %xmm15, (%rax) vmovdqu %xmm3, 16(%rax) vmovdqu %xmm4, 32(%rax) vmovdqu %xmm5, 48(%rax) vmovdqu %xmm13, 64(%rax) vmovdqu %xmm14, 80(%rax) addq $96, %rax addq $-96, %rbx vpaddd .LCPI1_8(%rip), %xmm0, %xmm0 cmpq $95, %rbx ja .LBB1_35 .LBB1_33: vmovdqa %xmm0, (%rsp) vpshufb %xmm9, %xmm15, %xmm1 vpxor %xmm1, %xmm8, %xmm2 vpshufb %xmm9, %xmm3, %xmm1 vpshufb %xmm9, %xmm4, %xmm3 vpshufb %xmm9, %xmm5, %xmm5 vpshufb %xmm9, %xmm14, %xmm4 vmovdqa 240(%rdi), %xmm6 vpclmulqdq $0, %xmm4, %xmm6, %xmm7 vpshufb %xmm9, %xmm13, %xmm8 vpclmulqdq $1, %xmm4, %xmm6, %xmm9 vmovdqa 256(%rdi), %xmm10 vpclmulqdq $16, %xmm4, %xmm6, %xmm11 vmovdqa 272(%rdi), %xmm12 vpclmulqdq $17, %xmm4, %xmm6, %xmm6 vmovdqa 288(%rdi), %xmm13 vpclmulqdq $0, %xmm8, %xmm10, %xmm14 vmovdqa 304(%rdi), %xmm0 vpclmulqdq $1, %xmm8, %xmm10, %xmm15 vpxor %xmm9, %xmm11, %xmm9 vpclmulqdq $16, %xmm8, %xmm10, %xmm11 vpclmulqdq $17, %xmm8, %xmm10, %xmm8 vmovdqa 320(%rdi), %xmm4 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $0, %xmm5, %xmm12, %xmm10 vpxor %xmm11, %xmm15, %xmm11 vpclmulqdq $1, %xmm5, %xmm12, %xmm14 vpxor %xmm11, %xmm9, %xmm9 vpclmulqdq $16, %xmm5, %xmm12, %xmm11 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm5, %xmm12, %xmm5 vpxor %xmm11, %xmm14, %xmm8 vpclmulqdq $0, %xmm3, %xmm13, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpclmulqdq $1, %xmm3, %xmm13, %xmm11 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $16, %xmm3, %xmm13, %xmm10 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm13, %xmm3 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $0, %xmm1, %xmm0, %xmm9 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpxor %xmm3, %xmm6, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm6 vpxor %xmm7, %xmm9, %xmm7 vpxor %xmm5, %xmm10, %xmm5 vpxor %xmm6, %xmm5, %xmm5 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vmovdqa %xmm2, %xmm1 vpclmulqdq $0, %xmm2, %xmm4, %xmm2 vpxor %xmm2, %xmm7, %xmm2 vpclmulqdq $1, %xmm1, %xmm4, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $16, %xmm1, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $17, %xmm1, %xmm4, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI1_13(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm3, %xmm0, %xmm4 movq %rax, %rdx movq %rcx, %r9 cmpq $16, %rbx jae .LBB1_36 .LBB1_28: movq %rdx, %r14 movq %r9, %rsi vmovdqa (%rsp), %xmm6 jmp .LBB1_29 .LBB1_26: vmovdqa %xmm0, (%rsp) movq %r15, %rbx cmpq $16, %rbx jb .LBB1_28 .LBB1_36: vmovaps (%rdi), %xmm0 vmovaps %xmm0, 32(%rsp) vmovaps 16(%rdi), %xmm0 vmovaps %xmm0, 48(%rsp) vmovaps 32(%rdi), %xmm0 vmovaps %xmm0, 128(%rsp) vmovaps 48(%rdi), %xmm0 vmovaps %xmm0, 112(%rsp) vmovaps 64(%rdi), %xmm0 vmovaps %xmm0, 96(%rsp) vmovaps 80(%rdi), %xmm0 vmovaps %xmm0, 80(%rsp) vmovaps 96(%rdi), %xmm0 vmovaps %xmm0, 64(%rsp) vmovdqa 112(%rdi), %xmm7 vmovdqa 128(%rdi), %xmm8 vmovdqa 144(%rdi), %xmm9 vmovdqa 160(%rdi), %xmm10 vmovdqa 176(%rdi), %xmm11 vmovdqa 192(%rdi), %xmm12 vmovdqa 208(%rdi), %xmm13 vmovdqa 224(%rdi), %xmm14 vmovdqa 240(%rdi), %xmm15 vmovdqa .LCPI1_2(%rip), %xmm0 vpbroadcastq .LCPI1_13(%rip), %xmm1 vmovdqa (%rsp), %xmm6 .p2align 4, 0x90 .LBB1_37: vpshufb %xmm0, %xmm6, %xmm2 vpxor 32(%rsp), %xmm2, %xmm2 vaesenc 48(%rsp), %xmm2, %xmm2 vaesenc 128(%rsp), %xmm2, %xmm2 vaesenc 112(%rsp), %xmm2, %xmm2 vaesenc 96(%rsp), %xmm2, %xmm2 vaesenc 80(%rsp), %xmm2, %xmm2 vaesenc 64(%rsp), %xmm2, %xmm2 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm13, %xmm2, %xmm2 vaesenclast %xmm14, %xmm2, %xmm2 vpxor (%r9), %xmm2, %xmm2 vpshufb %xmm0, %xmm2, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $1, %xmm3, %xmm15, %xmm4 vpclmulqdq $16, %xmm3, %xmm15, %xmm5 vmovdqu %xmm2, (%rdx) vpclmulqdq $0, %xmm3, %xmm15, %xmm2 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm3, %xmm15, %xmm3 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpsrldq $8, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm1, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm1, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpxor %xmm2, %xmm4, %xmm4 leaq 16(%r9), %rsi leaq 16(%rdx), %r14 addq $-16, %rbx vpaddd .LCPI1_1(%rip), %xmm6, %xmm6 movq %r14, %rdx movq %rsi, %r9 cmpq $15, %rbx ja .LBB1_37 .LBB1_29: vmovdqa %xmm6, (%rsp) testq %rbx, %rbx je .LBB1_40 vmovdqa %xmm4, 32(%rsp) movq %r8, 48(%rsp) vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 16(%rsp) leaq 16(%rsp), %rax movq memcpy@GOTPCREL(%rip), %rbp movq %rdi, %r13 movq %rax, %rdi movq %rbx, %rdx callq *%rbp vmovdqa (%rsp), %xmm0 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor (%r13), %xmm0, %xmm0 vaesenc 16(%r13), %xmm0, %xmm0 vaesenc 32(%r13), %xmm0, %xmm0 vaesenc 48(%r13), %xmm0, %xmm0 vaesenc 64(%r13), %xmm0, %xmm0 vaesenc 80(%r13), %xmm0, %xmm0 vaesenc 96(%r13), %xmm0, %xmm0 vaesenc 112(%r13), %xmm0, %xmm0 vaesenc 128(%r13), %xmm0, %xmm0 vaesenc 144(%r13), %xmm0, %xmm0 vaesenc 160(%r13), %xmm0, %xmm0 vaesenc 176(%r13), %xmm0, %xmm0 vaesenc 192(%r13), %xmm0, %xmm0 vaesenc 208(%r13), %xmm0, %xmm0 movq %r13, %r12 vaesenclast 224(%r13), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) vmovdqa %xmm0, 16(%rsp) leaq 16(%rsp), %rsi movq %r14, %rdi movq %rbx, %rdx callq *%rbp testq %r15, %r15 je .LBB1_31 vmovaps (%rsp), %xmm0 vmovaps %xmm0, 432(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 16(%rsp) leaq 16(%rsp), %rdi leaq 432(%rsp), %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) vmovdqa 16(%rsp), %xmm0 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor 32(%rsp), %xmm0, %xmm0 movq %r12, %rdi vmovdqa 240(%r12), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 jmp .LBB1_39 .LBB1_15: movq %r12, %rdi vmovdqa 240(%r12), %xmm1 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpxor 32(%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI1_13(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm4 movq %rbx, %r8 jmp .LBB1_40 .LBB1_31: movq %r12, %rdi vmovdqa 240(%r12), %xmm0 vmovdqa (%rsp), %xmm1 vpshufb .LCPI1_2(%rip), %xmm1, %xmm1 vpxor 32(%rsp), %xmm1, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 .LBB1_39: vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI1_13(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm4 movq 48(%rsp), %r8 .LBB1_40: vmovdqa 240(%rdi), %xmm0 vmovq %r8, %xmm1 vmovq %r15, %xmm2 vpunpcklqdq %xmm1, %xmm2, %xmm1 vpsllq $3, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpxor %xmm3, %xmm4, %xmm1 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpbroadcastq .LCPI1_13(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm3, %xmm2, %xmm3 movq 536(%rsp), %rax vpxor %xmm0, %xmm3, %xmm0 vmovdqa 144(%rsp), %xmm3 vpxor (%rdi), %xmm3, %xmm3 vaesenc 16(%rdi), %xmm3, %xmm3 vaesenc 32(%rdi), %xmm3, %xmm3 vaesenc 48(%rdi), %xmm3, %xmm3 vaesenc 64(%rdi), %xmm3, %xmm3 vaesenc 80(%rdi), %xmm3, %xmm3 vaesenc 96(%rdi), %xmm3, %xmm3 vaesenc 112(%rdi), %xmm3, %xmm3 vaesenc 128(%rdi), %xmm3, %xmm3 vaesenc 144(%rdi), %xmm3, %xmm3 vaesenc 160(%rdi), %xmm3, %xmm3 vaesenc 176(%rdi), %xmm3, %xmm3 vaesenc 192(%rdi), %xmm3, %xmm3 vaesenc 208(%rdi), %xmm3, %xmm3 vaesenclast 224(%rdi), %xmm3, %xmm3 vpshufb .LCPI1_2(%rip), %xmm0, %xmm0 vpshufb .LCPI1_10(%rip), %xmm1, %xmm1 vpshufb .LCPI1_11(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vmovdqu %xmm0, (%rax) movl $1, %eax .LBB1_41: addq $456, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end1: .size haberdashery_aes256gcm_haswell_encrypt, .Lfunc_end1-haberdashery_aes256gcm_haswell_encrypt .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_1: .long 1 .long 0 .long 0 .long 0 .LCPI2_2: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_3: .zero 8 .quad -4467570830351532032 .LCPI2_4: .long 2 .long 0 .long 0 .long 0 .LCPI2_5: .long 3 .long 0 .long 0 .long 0 .LCPI2_6: .long 4 .long 0 .long 0 .long 0 .LCPI2_7: .long 5 .long 0 .long 0 .long 0 .LCPI2_8: .long 6 .long 0 .long 0 .long 0 .LCPI2_9: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI2_10: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI2_11: .quad -4467570830351532032 .section .rodata,"a",@progbits .LCPI2_12: .byte 5 .byte 0 .section .text.haberdashery_aes256gcm_haswell_decrypt,"ax",@progbits .globl haberdashery_aes256gcm_haswell_decrypt .p2align 4, 0x90 .type haberdashery_aes256gcm_haswell_decrypt,@function haberdashery_aes256gcm_haswell_decrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $488, %rsp .cfi_def_cfa_offset 544 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 544(%rsp), %r15 xorl %eax, %eax cmpq 576(%rsp), %r15 jne .LBB2_39 cmpq $16, 560(%rsp) setne %r10b movabsq $2305843009213693950, %r11 cmpq %r11, %r8 seta %r11b movq %r15, %rbx shrq $5, %rbx cmpq $2147483647, %rbx setae %bl orb %r10b, %r11b orb %bl, %r11b cmpq $12, %rdx setne %dl orb %r11b, %dl jne .LBB2_39 movq 552(%rsp), %r13 vmovd (%rsi), %xmm0 vpinsrd $1, 4(%rsi), %xmm0, %xmm0 vpinsrd $2, 8(%rsi), %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm0 vmovdqa %xmm0, 144(%rsp) vpxor %xmm7, %xmm7, %xmm7 testq %r8, %r8 je .LBB2_3 cmpq $96, %r8 jb .LBB2_6 vmovdqu (%rcx), %xmm1 vmovdqu 16(%rcx), %xmm2 vmovdqu 32(%rcx), %xmm3 vmovdqu 48(%rcx), %xmm4 vmovdqu 64(%rcx), %xmm5 vmovdqu 80(%rcx), %xmm9 vmovdqa .LCPI2_2(%rip), %xmm0 vpshufb %xmm0, %xmm1, %xmm13 vpshufb %xmm0, %xmm2, %xmm8 vpshufb %xmm0, %xmm3, %xmm6 vpshufb %xmm0, %xmm9, %xmm3 vmovdqa 240(%rdi), %xmm1 vpclmulqdq $0, %xmm3, %xmm1, %xmm9 vpshufb %xmm0, %xmm4, %xmm10 vpclmulqdq $1, %xmm3, %xmm1, %xmm11 vpshufb %xmm0, %xmm5, %xmm5 vpclmulqdq $16, %xmm3, %xmm1, %xmm12 vmovdqa 256(%rdi), %xmm2 vpclmulqdq $17, %xmm3, %xmm1, %xmm7 vmovdqa 272(%rdi), %xmm4 vpclmulqdq $0, %xmm5, %xmm2, %xmm14 vmovdqa 288(%rdi), %xmm3 vpclmulqdq $1, %xmm5, %xmm2, %xmm15 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $16, %xmm5, %xmm2, %xmm12 vpxor %xmm9, %xmm14, %xmm9 vpclmulqdq $17, %xmm5, %xmm2, %xmm5 vpxor %xmm12, %xmm15, %xmm12 vpclmulqdq $0, %xmm10, %xmm4, %xmm14 vpxor %xmm12, %xmm11, %xmm11 vpclmulqdq $1, %xmm10, %xmm4, %xmm12 vpxor %xmm7, %xmm5, %xmm7 vpclmulqdq $16, %xmm10, %xmm4, %xmm15 vmovdqa 304(%rdi), %xmm5 vpclmulqdq $17, %xmm10, %xmm4, %xmm10 vpxor %xmm15, %xmm12, %xmm12 vpclmulqdq $0, %xmm6, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $1, %xmm6, %xmm3, %xmm15 vpxor %xmm14, %xmm9, %xmm9 vpclmulqdq $16, %xmm6, %xmm3, %xmm14 vpxor %xmm15, %xmm12, %xmm12 vpclmulqdq $17, %xmm6, %xmm3, %xmm6 vpxor %xmm12, %xmm11, %xmm11 vpclmulqdq $0, %xmm8, %xmm5, %xmm12 vpxor %xmm6, %xmm10, %xmm6 vpclmulqdq $1, %xmm8, %xmm5, %xmm10 vpxor %xmm6, %xmm7, %xmm6 vmovdqa %xmm6, (%rsp) vpclmulqdq $16, %xmm8, %xmm5, %xmm15 vmovdqa 320(%rdi), %xmm6 vpclmulqdq $0, %xmm13, %xmm6, %xmm7 vpxor %xmm10, %xmm14, %xmm10 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm7, %xmm12, %xmm7 vpxor %xmm7, %xmm9, %xmm9 vpclmulqdq $1, %xmm13, %xmm6, %xmm7 vpxor %xmm7, %xmm10, %xmm7 vpxor %xmm7, %xmm11, %xmm7 vpclmulqdq $16, %xmm13, %xmm6, %xmm10 vpxor %xmm7, %xmm10, %xmm10 vpclmulqdq $17, %xmm8, %xmm5, %xmm7 vpclmulqdq $17, %xmm13, %xmm6, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpxor (%rsp), %xmm7, %xmm8 addq $96, %rcx leaq -96(%r8), %rsi cmpq $96, %rsi jb .LBB2_16 vmovdqa %xmm6, (%rsp) vmovdqa %xmm5, %xmm6 vmovdqa %xmm3, %xmm5 vmovdqa %xmm2, %xmm3 .p2align 4, 0x90 .LBB2_15: vmovdqu (%rcx), %xmm12 vmovdqu 32(%rcx), %xmm13 vmovdqu 48(%rcx), %xmm11 vmovdqu 64(%rcx), %xmm14 vmovdqu 80(%rcx), %xmm15 vpslldq $8, %xmm10, %xmm7 vpxor %xmm7, %xmm9, %xmm7 vpsrldq $8, %xmm10, %xmm9 vpbroadcastq .LCPI2_11(%rip), %xmm2 vpclmulqdq $16, %xmm2, %xmm7, %xmm10 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $16, %xmm2, %xmm7, %xmm10 vpxor %xmm9, %xmm8, %xmm8 vpshufd $78, %xmm7, %xmm7 vpshufb %xmm0, %xmm12, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpshufb %xmm0, %xmm15, %xmm12 vpclmulqdq $0, %xmm12, %xmm1, %xmm15 vpxor %xmm7, %xmm8, %xmm7 vmovdqa %xmm1, %xmm2 vmovdqa %xmm0, %xmm1 vpclmulqdq $1, %xmm12, %xmm2, %xmm0 vpxor %xmm7, %xmm10, %xmm8 vpclmulqdq $16, %xmm12, %xmm2, %xmm7 vpshufb %xmm1, %xmm13, %xmm9 vpclmulqdq $17, %xmm12, %xmm2, %xmm10 vpshufb %xmm1, %xmm14, %xmm12 vpclmulqdq $0, %xmm12, %xmm3, %xmm13 vpxor %xmm0, %xmm7, %xmm0 vpclmulqdq $1, %xmm12, %xmm3, %xmm7 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $16, %xmm12, %xmm3, %xmm14 vpshufb %xmm1, %xmm11, %xmm11 vpclmulqdq $17, %xmm12, %xmm3, %xmm12 vpxor %xmm7, %xmm14, %xmm7 vpclmulqdq $0, %xmm11, %xmm4, %xmm14 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $1, %xmm11, %xmm4, %xmm7 vpxor %xmm10, %xmm12, %xmm10 vpclmulqdq $16, %xmm11, %xmm4, %xmm12 vpxor %xmm7, %xmm12, %xmm7 vpclmulqdq $0, %xmm9, %xmm5, %xmm12 vpxor %xmm12, %xmm14, %xmm12 vpclmulqdq $17, %xmm11, %xmm4, %xmm11 vpxor %xmm12, %xmm13, %xmm12 vpclmulqdq $1, %xmm9, %xmm5, %xmm13 vpxor %xmm7, %xmm13, %xmm7 vpclmulqdq $17, %xmm9, %xmm5, %xmm13 vpxor %xmm7, %xmm0, %xmm0 vpxor %xmm13, %xmm11, %xmm7 vmovdqu 16(%rcx), %xmm11 vpshufb %xmm1, %xmm11, %xmm11 vpclmulqdq $16, %xmm9, %xmm5, %xmm9 vpxor %xmm7, %xmm10, %xmm7 vpclmulqdq $0, %xmm11, %xmm6, %xmm10 vpxor %xmm10, %xmm12, %xmm10 vpclmulqdq $1, %xmm11, %xmm6, %xmm12 vpxor %xmm12, %xmm9, %xmm9 vpclmulqdq $16, %xmm11, %xmm6, %xmm12 vpxor %xmm12, %xmm9, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $17, %xmm11, %xmm6, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vmovdqa (%rsp), %xmm11 vpclmulqdq $0, %xmm8, %xmm11, %xmm9 vpxor %xmm9, %xmm10, %xmm9 vpclmulqdq $1, %xmm8, %xmm11, %xmm10 vpxor %xmm0, %xmm10, %xmm0 vpclmulqdq $16, %xmm8, %xmm11, %xmm10 vpxor %xmm0, %xmm10, %xmm10 vpclmulqdq $17, %xmm8, %xmm11, %xmm0 vpxor %xmm0, %xmm7, %xmm8 vmovdqa %xmm1, %xmm0 vmovdqa %xmm2, %xmm1 addq $96, %rcx addq $-96, %rsi cmpq $95, %rsi ja .LBB2_15 .LBB2_16: vpslldq $8, %xmm10, %xmm0 vpxor %xmm0, %xmm9, %xmm0 vpbroadcastq .LCPI2_11(%rip), %xmm1 vpclmulqdq $16, %xmm1, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpsrldq $8, %xmm10, %xmm2 vpclmulqdq $16, %xmm1, %xmm0, %xmm1 vpxor %xmm2, %xmm8, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpxor %xmm1, %xmm0, %xmm7 cmpq $16, %rsi jae .LBB2_17 jmp .LBB2_8 .LBB2_6: movq %r8, %rsi cmpq $16, %rsi jb .LBB2_8 .LBB2_17: vmovdqa 240(%rdi), %xmm0 leaq -16(%rsi), %rdx testb $16, %dl je .LBB2_18 cmpq $16, %rdx jae .LBB2_20 .LBB2_9: testq %rdx, %rdx je .LBB2_3 .LBB2_10: vmovdqa %xmm7, 16(%rsp) movq %r9, %r14 movq %r8, %rbx movq %rdi, %r12 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) leaq 32(%rsp), %rdi movq %rcx, %rsi callq *memcpy@GOTPCREL(%rip) vmovdqa 32(%rsp), %xmm0 testq %r15, %r15 je .LBB2_11 movabsq $-68719476704, %rax leaq (%r15,%rax), %rcx incq %rax cmpq %rax, %rcx movl $0, %eax vmovdqa 16(%rsp), %xmm2 jb .LBB2_39 movq %r12, %rdi movq %rbx, %r8 movq %r14, %r9 vmovdqa 240(%r12), %xmm1 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI2_11(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm7 jmp .LBB2_24 .LBB2_18: vmovdqu (%rcx), %xmm1 vpshufb .LCPI2_2(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm7, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpbroadcastq .LCPI2_11(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 addq $16, %rcx vpclmulqdq $17, %xmm1, %xmm0, %xmm1 vpsrldq $8, %xmm3, %xmm3 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpxor %xmm3, %xmm1, %xmm1 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm7 movq %rdx, %rsi cmpq $16, %rdx jb .LBB2_9 .LBB2_20: vmovdqa .LCPI2_2(%rip), %xmm1 vpbroadcastq .LCPI2_11(%rip), %xmm2 .p2align 4, 0x90 .LBB2_21: vmovdqu (%rcx), %xmm3 vpshufb %xmm1, %xmm3, %xmm3 vpxor %xmm3, %xmm7, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm4 vpclmulqdq $1, %xmm3, %xmm0, %xmm5 vmovdqu 16(%rcx), %xmm6 vpclmulqdq $16, %xmm3, %xmm0, %xmm7 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm5, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpshufb %xmm1, %xmm6, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $0, %xmm3, %xmm0, %xmm4 addq $32, %rcx vpclmulqdq $1, %xmm3, %xmm0, %xmm5 addq $-32, %rsi vpclmulqdq $16, %xmm3, %xmm0, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm2, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm7 cmpq $15, %rsi ja .LBB2_21 .LBB2_8: movq %rsi, %rdx testq %rdx, %rdx jne .LBB2_10 .LBB2_3: testq %r15, %r15 je .LBB2_12 movabsq $-68719476704, %rcx leaq (%r15,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB2_39 .LBB2_24: vmovdqa 144(%rsp), %xmm0 vpshufb .LCPI2_0(%rip), %xmm0, %xmm0 movq 568(%rsp), %rax vpaddd .LCPI2_1(%rip), %xmm0, %xmm8 cmpq $96, %r15 jb .LBB2_25 vmovaps (%rdi), %xmm0 vmovaps %xmm0, 160(%rsp) vmovaps 16(%rdi), %xmm0 vmovaps %xmm0, 64(%rsp) vmovaps 32(%rdi), %xmm0 vmovaps %xmm0, 48(%rsp) vmovaps 48(%rdi), %xmm0 vmovaps %xmm0, 448(%rsp) vmovaps 64(%rdi), %xmm0 vmovaps %xmm0, 432(%rsp) vmovaps 80(%rdi), %xmm0 vmovaps %xmm0, 416(%rsp) vmovaps 96(%rdi), %xmm0 vmovaps %xmm0, 400(%rsp) vmovaps 112(%rdi), %xmm0 vmovaps %xmm0, 384(%rsp) vmovaps 128(%rdi), %xmm0 vmovaps %xmm0, 368(%rsp) vmovaps 144(%rdi), %xmm0 vmovaps %xmm0, 352(%rsp) vmovaps 160(%rdi), %xmm0 vmovaps %xmm0, 336(%rsp) vmovaps 176(%rdi), %xmm0 vmovaps %xmm0, 320(%rsp) vmovaps 192(%rdi), %xmm0 vmovaps %xmm0, 304(%rsp) vmovaps 208(%rdi), %xmm0 vmovaps %xmm0, 288(%rsp) vmovaps 224(%rdi), %xmm0 vmovaps %xmm0, 272(%rsp) vmovaps 240(%rdi), %xmm0 vmovaps %xmm0, 256(%rsp) movq %r15, %rbx vmovaps 256(%rdi), %xmm0 vmovaps %xmm0, 240(%rsp) vmovaps 272(%rdi), %xmm0 vmovaps %xmm0, 224(%rsp) vmovaps 288(%rdi), %xmm0 vmovaps %xmm0, 208(%rsp) vmovaps 304(%rdi), %xmm0 vmovaps %xmm0, 192(%rsp) vmovdqa 320(%rdi), %xmm0 vmovdqa %xmm0, 176(%rsp) .p2align 4, 0x90 .LBB2_29: vmovdqa %xmm8, (%rsp) vmovdqu (%r9), %xmm9 vmovdqa %xmm9, 112(%rsp) vmovups 32(%r9), %xmm0 vmovaps %xmm0, 16(%rsp) vmovdqu 48(%r9), %xmm12 vmovdqa %xmm12, 80(%rsp) vmovdqu 64(%r9), %xmm10 vmovdqu 80(%r9), %xmm11 vmovdqa %xmm11, 128(%rsp) vmovdqa .LCPI2_2(%rip), %xmm6 vpshufb %xmm6, %xmm8, %xmm0 vpaddd .LCPI2_1(%rip), %xmm8, %xmm1 vpshufb %xmm6, %xmm1, %xmm1 vpaddd .LCPI2_4(%rip), %xmm8, %xmm2 vpshufb %xmm6, %xmm2, %xmm2 vpaddd .LCPI2_5(%rip), %xmm8, %xmm3 vpshufb %xmm6, %xmm3, %xmm3 vpaddd .LCPI2_6(%rip), %xmm8, %xmm4 vpshufb %xmm6, %xmm4, %xmm4 vpmovsxbq .LCPI2_12(%rip), %xmm5 vpaddd (%rsp), %xmm5, %xmm5 vpshufb %xmm6, %xmm5, %xmm5 vmovdqa %xmm7, %xmm8 vpshufb %xmm6, %xmm9, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vmovdqa %xmm7, 96(%rsp) vpshufb %xmm6, %xmm11, %xmm9 vmovdqa 160(%rsp), %xmm7 vpxor %xmm0, %xmm7, %xmm15 vpxor %xmm1, %xmm7, %xmm1 vpxor %xmm2, %xmm7, %xmm2 vpxor %xmm3, %xmm7, %xmm3 vpxor %xmm4, %xmm7, %xmm4 vpxor %xmm5, %xmm7, %xmm14 vmovaps 64(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm14, %xmm14 #NO_APP vpxor %xmm7, %xmm7, %xmm7 vpxor %xmm8, %xmm8, %xmm8 vxorps %xmm0, %xmm0, %xmm0 vmovaps 48(%rsp), %xmm11 vmovaps 256(%rsp), %xmm13 #APP vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm14, %xmm14 vpclmulqdq $16, %xmm13, %xmm9, %xmm5 vpxor %xmm5, %xmm8, %xmm8 vpclmulqdq $0, %xmm13, %xmm9, %xmm5 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $17, %xmm13, %xmm9, %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpclmulqdq $1, %xmm13, %xmm9, %xmm5 vpxor %xmm5, %xmm8, %xmm8 #NO_APP vpshufb %xmm6, %xmm10, %xmm5 vmovaps 448(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm14, %xmm14 #NO_APP vmovaps 432(%rsp), %xmm11 vmovaps 240(%rsp), %xmm13 #APP vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm14, %xmm14 vpclmulqdq $16, %xmm13, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpclmulqdq $0, %xmm13, %xmm5, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $17, %xmm13, %xmm5, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $1, %xmm13, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 #NO_APP vpshufb %xmm6, %xmm12, %xmm5 vmovaps 416(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm14, %xmm14 #NO_APP vmovaps 400(%rsp), %xmm11 vmovaps 224(%rsp), %xmm13 #APP vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm14, %xmm14 vpclmulqdq $16, %xmm13, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpclmulqdq $0, %xmm13, %xmm5, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $17, %xmm13, %xmm5, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $1, %xmm13, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 #NO_APP vmovdqa 16(%rsp), %xmm5 vpshufb %xmm6, %xmm5, %xmm5 vmovaps 384(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm14, %xmm14 #NO_APP vmovaps 368(%rsp), %xmm11 vmovaps 208(%rsp), %xmm13 #APP vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm14, %xmm14 vpclmulqdq $16, %xmm13, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpclmulqdq $0, %xmm13, %xmm5, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $17, %xmm13, %xmm5, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $1, %xmm13, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 #NO_APP vmovdqu 16(%r9), %xmm5 vmovaps 352(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm14, %xmm14 #NO_APP vpshufb %xmm6, %xmm5, %xmm9 vmovdqa 336(%rsp), %xmm13 vmovaps 192(%rsp), %xmm12 #APP vaesenc %xmm13, %xmm15, %xmm15 vaesenc %xmm13, %xmm1, %xmm1 vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm13, %xmm3, %xmm3 vaesenc %xmm13, %xmm4, %xmm4 vaesenc %xmm13, %xmm14, %xmm14 vpclmulqdq $16, %xmm12, %xmm9, %xmm11 vpxor %xmm11, %xmm8, %xmm8 vpclmulqdq $0, %xmm12, %xmm9, %xmm11 vpxor %xmm7, %xmm11, %xmm7 vpclmulqdq $17, %xmm12, %xmm9, %xmm11 vpxor %xmm0, %xmm11, %xmm0 vpclmulqdq $1, %xmm12, %xmm9, %xmm11 vpxor %xmm11, %xmm8, %xmm8 #NO_APP vmovaps 320(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm14, %xmm14 #NO_APP vmovdqa 304(%rsp), %xmm11 vmovdqa 176(%rsp), %xmm12 vmovdqa 96(%rsp), %xmm6 #APP vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm14, %xmm14 vpclmulqdq $16, %xmm12, %xmm6, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpclmulqdq $0, %xmm12, %xmm6, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $17, %xmm12, %xmm6, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $1, %xmm12, %xmm6, %xmm9 vpxor %xmm9, %xmm8, %xmm8 #NO_APP vpxor %xmm11, %xmm11, %xmm11 vpunpcklqdq %xmm8, %xmm11, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpunpckhqdq %xmm11, %xmm8, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vpbroadcastq .LCPI2_11(%rip), %xmm9 vpclmulqdq $16, %xmm9, %xmm7, %xmm8 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $16, %xmm9, %xmm7, %xmm8 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpxor %xmm0, %xmm8, %xmm7 vmovaps 288(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm14, %xmm14 #NO_APP vmovaps 272(%rsp), %xmm0 #APP vaesenclast %xmm0, %xmm15, %xmm15 vaesenclast %xmm0, %xmm1, %xmm1 vaesenclast %xmm0, %xmm2, %xmm2 vaesenclast %xmm0, %xmm3, %xmm3 vaesenclast %xmm0, %xmm4, %xmm4 vaesenclast %xmm0, %xmm14, %xmm14 #NO_APP vpxor 112(%rsp), %xmm15, %xmm0 vpxor %xmm5, %xmm1, %xmm1 vmovdqa (%rsp), %xmm8 vpxor 16(%rsp), %xmm2, %xmm2 vpxor 80(%rsp), %xmm3, %xmm3 vpxor %xmm4, %xmm10, %xmm4 vmovdqu %xmm0, (%rax) vmovdqu %xmm1, 16(%rax) vmovdqu %xmm2, 32(%rax) vmovdqu %xmm3, 48(%rax) vmovdqu %xmm4, 64(%rax) vpxor 128(%rsp), %xmm14, %xmm0 vmovdqu %xmm0, 80(%rax) addq $96, %r9 addq $96, %rax addq $-96, %rbx vpaddd .LCPI2_8(%rip), %xmm8, %xmm8 cmpq $95, %rbx ja .LBB2_29 cmpq $16, %rbx jb .LBB2_27 .LBB2_30: vmovdqa 240(%rdi), %xmm0 vmovaps (%rdi), %xmm1 vmovaps %xmm1, (%rsp) vmovaps 16(%rdi), %xmm1 vmovaps %xmm1, 16(%rsp) vmovaps 32(%rdi), %xmm1 vmovaps %xmm1, 128(%rsp) vmovaps 48(%rdi), %xmm1 vmovaps %xmm1, 112(%rsp) vmovaps 64(%rdi), %xmm1 vmovaps %xmm1, 96(%rsp) vmovaps 80(%rdi), %xmm1 vmovaps %xmm1, 80(%rsp) vmovaps 96(%rdi), %xmm1 vmovaps %xmm1, 64(%rsp) vmovaps 112(%rdi), %xmm1 vmovaps %xmm1, 48(%rsp) vmovdqa 128(%rdi), %xmm9 vmovdqa 144(%rdi), %xmm10 vmovdqa 160(%rdi), %xmm11 vmovdqa 176(%rdi), %xmm12 vmovdqa 192(%rdi), %xmm13 vmovdqa 208(%rdi), %xmm14 movq %rdi, %r13 vmovdqa 224(%rdi), %xmm15 vmovdqa .LCPI2_2(%rip), %xmm1 vpbroadcastq .LCPI2_11(%rip), %xmm2 .p2align 4, 0x90 .LBB2_31: vmovdqu (%r9), %xmm3 vpshufb %xmm1, %xmm3, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpclmulqdq $0, %xmm4, %xmm0, %xmm5 vpclmulqdq $1, %xmm4, %xmm0, %xmm6 vpclmulqdq $16, %xmm4, %xmm0, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $17, %xmm4, %xmm0, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $16, %xmm2, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpshufd $78, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $16, %xmm2, %xmm5, %xmm5 vpxor %xmm4, %xmm5, %xmm7 vpshufb %xmm1, %xmm8, %xmm4 vpxor (%rsp), %xmm4, %xmm4 vaesenc 16(%rsp), %xmm4, %xmm4 vaesenc 128(%rsp), %xmm4, %xmm4 vaesenc 112(%rsp), %xmm4, %xmm4 vaesenc 96(%rsp), %xmm4, %xmm4 vaesenc 80(%rsp), %xmm4, %xmm4 vaesenc 64(%rsp), %xmm4, %xmm4 vaesenc 48(%rsp), %xmm4, %xmm4 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm10, %xmm4, %xmm4 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm13, %xmm4, %xmm4 vaesenc %xmm14, %xmm4, %xmm4 vaesenclast %xmm15, %xmm4, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vmovdqu %xmm3, (%rax) leaq 16(%rax), %r14 addq $-16, %rbx addq $16, %r9 vpaddd .LCPI2_1(%rip), %xmm8, %xmm8 movq %r14, %rax cmpq $15, %rbx ja .LBB2_31 jmp .LBB2_32 .LBB2_25: movq %r15, %rbx cmpq $16, %rbx jae .LBB2_30 .LBB2_27: movq %rdi, %r13 movq %rax, %r14 .LBB2_32: vmovdqa %xmm7, 16(%rsp) movq %r8, %rbp vpxor %xmm1, %xmm1, %xmm1 vpxor %xmm2, %xmm2, %xmm2 testq %rbx, %rbx je .LBB2_34 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) leaq 32(%rsp), %rdi movq memcpy@GOTPCREL(%rip), %r12 movq %r9, %rsi movq %rbx, %rdx vmovdqa %xmm8, (%rsp) callq *%r12 vmovdqa (%rsp), %xmm0 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor (%r13), %xmm0, %xmm0 vaesenc 16(%r13), %xmm0, %xmm0 vaesenc 32(%r13), %xmm0, %xmm0 vaesenc 48(%r13), %xmm0, %xmm0 vaesenc 64(%r13), %xmm0, %xmm0 vaesenc 80(%r13), %xmm0, %xmm0 vaesenc 96(%r13), %xmm0, %xmm0 vaesenc 112(%r13), %xmm0, %xmm0 vaesenc 128(%r13), %xmm0, %xmm0 vaesenc 144(%r13), %xmm0, %xmm0 vaesenc 160(%r13), %xmm0, %xmm0 vaesenc 176(%r13), %xmm0, %xmm0 vaesenc 192(%r13), %xmm0, %xmm0 vaesenc 208(%r13), %xmm0, %xmm0 vaesenclast 224(%r13), %xmm0, %xmm0 vmovdqa 32(%rsp), %xmm1 vmovdqa %xmm1, (%rsp) vpxor %xmm1, %xmm0, %xmm0 vmovdqa %xmm0, 32(%rsp) leaq 32(%rsp), %rsi movq %r14, %rdi movq %rbx, %rdx callq *%r12 vmovdqa (%rsp), %xmm2 vpxor %xmm1, %xmm1, %xmm1 .LBB2_34: movq 552(%rsp), %rax vmovdqu (%rax), %xmm0 vmovdqa %xmm0, (%rsp) vmovdqa %xmm2, 464(%rsp) vmovdqa %xmm1, 32(%rsp) leaq 32(%rsp), %rdi leaq 464(%rsp), %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) testq %rbx, %rbx je .LBB2_35 vmovdqa 32(%rsp), %xmm0 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 movq %r13, %rdi vmovdqa 240(%r13), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI2_11(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm7 movq %rbp, %r8 jmp .LBB2_37 .LBB2_11: movq %r12, %rdi vmovdqa 240(%r12), %xmm1 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpxor 16(%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm1, %xmm2 vpclmulqdq $1, %xmm0, %xmm1, %xmm3 vpclmulqdq $16, %xmm0, %xmm1, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI2_11(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm4 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm7 movq %rbx, %r8 .LBB2_12: vmovdqu (%r13), %xmm5 jmp .LBB2_38 .LBB2_35: movq %r13, %rdi movq %rbp, %r8 vmovdqa 16(%rsp), %xmm7 .LBB2_37: vmovdqa (%rsp), %xmm5 .LBB2_38: vmovdqa 240(%rdi), %xmm0 vmovq %r8, %xmm1 vmovq %r15, %xmm2 vpunpcklqdq %xmm1, %xmm2, %xmm1 vpsllq $3, %xmm1, %xmm1 vpxor %xmm1, %xmm7, %xmm1 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpclmulqdq $1, %xmm1, %xmm0, %xmm3 vpclmulqdq $16, %xmm1, %xmm0, %xmm4 vpclmulqdq $17, %xmm1, %xmm0, %xmm0 vpxor %xmm3, %xmm4, %xmm1 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpbroadcastq .LCPI2_11(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm3, %xmm2, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vmovdqa 144(%rsp), %xmm3 vpxor (%rdi), %xmm3, %xmm3 vaesenc 16(%rdi), %xmm3, %xmm3 vaesenc 32(%rdi), %xmm3, %xmm3 vaesenc 48(%rdi), %xmm3, %xmm3 vaesenc 64(%rdi), %xmm3, %xmm3 vaesenc 80(%rdi), %xmm3, %xmm3 vaesenc 96(%rdi), %xmm3, %xmm3 vaesenc 112(%rdi), %xmm3, %xmm3 vaesenc 128(%rdi), %xmm3, %xmm3 vaesenc 144(%rdi), %xmm3, %xmm3 vaesenc 160(%rdi), %xmm3, %xmm3 vaesenc 176(%rdi), %xmm3, %xmm3 vaesenc 192(%rdi), %xmm3, %xmm3 vaesenc 208(%rdi), %xmm3, %xmm3 vaesenclast 224(%rdi), %xmm3, %xmm3 vpshufb .LCPI2_2(%rip), %xmm0, %xmm0 vpshufb .LCPI2_9(%rip), %xmm1, %xmm1 vpshufb .LCPI2_10(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm3, %xmm0, %xmm0 xorl %eax, %eax vptest %xmm0, %xmm0 sete %al .LBB2_39: addq $488, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end2: .size haberdashery_aes256gcm_haswell_decrypt, .Lfunc_end2-haberdashery_aes256gcm_haswell_decrypt .cfi_endproc .section .text.haberdashery_aes256gcm_haswell_is_supported,"ax",@progbits .globl haberdashery_aes256gcm_haswell_is_supported .p2align 4, 0x90 .type haberdashery_aes256gcm_haswell_is_supported,@function haberdashery_aes256gcm_haswell_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $297, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end3: .size haberdashery_aes256gcm_haswell_is_supported, .Lfunc_end3-haberdashery_aes256gcm_haswell_is_supported .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
84,179
asm/aes256gcmdndkv2_broadwell.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI0_1: .quad 4294967297 .quad 4294967297 .LCPI0_2: .quad 8589934594 .quad 8589934594 .LCPI0_3: .quad 17179869188 .quad 17179869188 .LCPI0_4: .quad 34359738376 .quad 34359738376 .LCPI0_5: .quad 68719476752 .quad 68719476752 .LCPI0_6: .quad 137438953504 .quad 137438953504 .LCPI0_7: .quad 274877907008 .quad 274877907008 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI0_8: .byte 13 .byte 14 .byte 15 .byte 12 .section .text.haberdashery_aes256gcmdndkv2_broadwell_init,"ax",@progbits .globl haberdashery_aes256gcmdndkv2_broadwell_init .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2_broadwell_init,@function haberdashery_aes256gcmdndkv2_broadwell_init: .cfi_startproc cmpq $32, %rdx jne .LBB0_2 vmovdqu (%rsi), %xmm0 vmovdqu 16(%rsi), %xmm1 vpslldq $4, %xmm0, %xmm2 vpslldq $8, %xmm0, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpslldq $12, %xmm0, %xmm4 vpbroadcastd .LCPI0_8(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm5 vaesenclast .LCPI0_1(%rip), %xmm5, %xmm5 vpxor %xmm4, %xmm2, %xmm2 vpxor %xmm0, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpslldq $4, %xmm1, %xmm4 vpslldq $8, %xmm1, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm1, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpshufd $255, %xmm2, %xmm5 vpxor %xmm6, %xmm6, %xmm6 vaesenclast %xmm6, %xmm5, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpslldq $4, %xmm2, %xmm5 vpslldq $8, %xmm2, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpslldq $12, %xmm2, %xmm7 vpshufb %xmm3, %xmm4, %xmm8 vaesenclast .LCPI0_2(%rip), %xmm8, %xmm8 vpxor %xmm7, %xmm5, %xmm5 vpxor %xmm2, %xmm5, %xmm5 vpxor %xmm5, %xmm8, %xmm5 vpslldq $4, %xmm4, %xmm7 vpslldq $8, %xmm4, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpslldq $12, %xmm4, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpshufd $255, %xmm5, %xmm8 vaesenclast %xmm6, %xmm8, %xmm8 vpxor %xmm4, %xmm7, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpslldq $4, %xmm5, %xmm8 vpslldq $8, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpslldq $12, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpshufb %xmm3, %xmm7, %xmm9 vaesenclast .LCPI0_3(%rip), %xmm9, %xmm9 vpxor %xmm5, %xmm8, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpslldq $4, %xmm7, %xmm9 vpslldq $8, %xmm7, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpslldq $12, %xmm7, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpshufd $255, %xmm8, %xmm10 vaesenclast %xmm6, %xmm10, %xmm10 vpxor %xmm7, %xmm9, %xmm9 vpxor %xmm9, %xmm10, %xmm9 vpslldq $4, %xmm8, %xmm10 vpslldq $8, %xmm8, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpslldq $12, %xmm8, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpshufb %xmm3, %xmm9, %xmm11 vaesenclast .LCPI0_4(%rip), %xmm11, %xmm11 vpxor %xmm8, %xmm10, %xmm10 vpxor %xmm10, %xmm11, %xmm10 vpslldq $4, %xmm9, %xmm11 vpslldq $8, %xmm9, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpslldq $12, %xmm9, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpshufd $255, %xmm10, %xmm12 vaesenclast %xmm6, %xmm12, %xmm12 vpxor %xmm9, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpslldq $4, %xmm10, %xmm12 vpslldq $8, %xmm10, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpslldq $12, %xmm10, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpshufb %xmm3, %xmm11, %xmm13 vaesenclast .LCPI0_5(%rip), %xmm13, %xmm13 vpxor %xmm10, %xmm12, %xmm12 vpxor %xmm12, %xmm13, %xmm12 vpslldq $4, %xmm11, %xmm13 vpslldq $8, %xmm11, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpslldq $12, %xmm11, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpshufd $255, %xmm12, %xmm14 vaesenclast %xmm6, %xmm14, %xmm14 vpxor %xmm11, %xmm13, %xmm13 vpxor %xmm13, %xmm14, %xmm13 vpslldq $4, %xmm12, %xmm14 vpslldq $8, %xmm12, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpshufb %xmm3, %xmm13, %xmm15 vaesenclast .LCPI0_6(%rip), %xmm15, %xmm15 vpslldq $12, %xmm12, %xmm3 vpxor %xmm3, %xmm14, %xmm3 vpxor %xmm3, %xmm12, %xmm3 vpxor %xmm3, %xmm15, %xmm3 vpslldq $4, %xmm13, %xmm14 vpslldq $8, %xmm13, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpslldq $12, %xmm13, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpshufd $255, %xmm3, %xmm15 vaesenclast %xmm6, %xmm15, %xmm6 vpxor %xmm13, %xmm14, %xmm14 vpxor %xmm6, %xmm14, %xmm6 vpslldq $4, %xmm3, %xmm14 vpslldq $8, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpslldq $12, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpshufb .LCPI0_0(%rip), %xmm6, %xmm15 vaesenclast .LCPI0_7(%rip), %xmm15, %xmm15 vpxor %xmm3, %xmm14, %xmm14 vpxor %xmm14, %xmm15, %xmm14 vmovdqa %xmm0, (%rdi) vmovdqa %xmm1, 16(%rdi) vmovdqa %xmm2, 32(%rdi) vmovdqa %xmm4, 48(%rdi) vmovdqa %xmm5, 64(%rdi) vmovdqa %xmm7, 80(%rdi) vmovdqa %xmm8, 96(%rdi) vmovdqa %xmm9, 112(%rdi) vmovdqa %xmm10, 128(%rdi) vmovdqa %xmm11, 144(%rdi) vmovdqa %xmm12, 160(%rdi) vmovdqa %xmm13, 176(%rdi) vmovdqa %xmm3, 192(%rdi) vmovdqa %xmm6, 208(%rdi) vmovdqa %xmm14, 224(%rdi) .LBB0_2: xorl %eax, %eax cmpq $32, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes256gcmdndkv2_broadwell_init, .Lfunc_end0-haberdashery_aes256gcmdndkv2_broadwell_init .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI1_0: .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 0 .LCPI1_1: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 96 .LCPI1_2: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 97 .LCPI1_3: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 98 .LCPI1_4: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI1_5: .quad 4294967297 .quad 4294967297 .LCPI1_12: .quad 274877907008 .quad 274877907008 .LCPI1_13: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_14: .zero 8 .quad -4467570830351532032 .LCPI1_15: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_16: .long 1 .long 0 .long 0 .long 0 .LCPI1_17: .long 2 .long 0 .long 0 .long 0 .LCPI1_18: .long 3 .long 0 .long 0 .long 0 .LCPI1_19: .long 4 .long 0 .long 0 .long 0 .LCPI1_20: .long 5 .long 0 .long 0 .long 0 .LCPI1_21: .long 6 .long 0 .long 0 .long 0 .LCPI1_22: .long 7 .long 0 .long 0 .long 0 .LCPI1_23: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_24: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_25: .zero 16 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI1_6: .long 0x00000002 .LCPI1_7: .long 0x0c0f0e0d .LCPI1_8: .long 0x00000004 .LCPI1_9: .long 0x00000008 .LCPI1_10: .long 0x00000010 .LCPI1_11: .long 0x00000020 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI1_26: .quad -4467570830351532032 .section .text.haberdashery_aes256gcmdndkv2_broadwell_encrypt,"ax",@progbits .globl haberdashery_aes256gcmdndkv2_broadwell_encrypt .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2_broadwell_encrypt,@function haberdashery_aes256gcmdndkv2_broadwell_encrypt: .cfi_startproc pushq %r15 .cfi_def_cfa_offset 16 pushq %r14 .cfi_def_cfa_offset 24 pushq %r13 .cfi_def_cfa_offset 32 pushq %r12 .cfi_def_cfa_offset 40 pushq %rbx .cfi_def_cfa_offset 48 subq $448, %rsp .cfi_def_cfa_offset 496 .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r13, -32 .cfi_offset %r14, -24 .cfi_offset %r15, -16 movq 496(%rsp), %r15 xorl %eax, %eax cmpq 512(%rsp), %r15 jne .LBB1_50 movq %r15, %r10 shrq $5, %r10 cmpq $2147483646, %r10 ja .LBB1_50 movabsq $2305843009213693950, %r10 cmpq %r10, %r8 ja .LBB1_50 cmpq $24, %rdx jne .LBB1_50 cmpq $16, 528(%rsp) jne .LBB1_50 vmovdqu (%rsi), %xmm0 vpextrb $15, %xmm0, %edx vpand .LCPI1_0(%rip), %xmm0, %xmm0 vpxor (%rdi), %xmm0, %xmm12 vpxor .LCPI1_1(%rip), %xmm12, %xmm3 vmovdqa 16(%rdi), %xmm13 vmovdqa 32(%rdi), %xmm0 vmovdqa 48(%rdi), %xmm1 vmovdqa 64(%rdi), %xmm2 vaesenc %xmm13, %xmm3, %xmm3 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm2, %xmm3, %xmm4 vmovdqa 80(%rdi), %xmm3 vaesenc %xmm3, %xmm4, %xmm5 vmovdqa 96(%rdi), %xmm4 vaesenc %xmm4, %xmm5, %xmm6 vmovdqa 112(%rdi), %xmm5 vaesenc %xmm5, %xmm6, %xmm7 vmovdqa 128(%rdi), %xmm6 vaesenc %xmm6, %xmm7, %xmm8 vmovdqa 144(%rdi), %xmm7 vaesenc %xmm7, %xmm8, %xmm9 vmovdqa 160(%rdi), %xmm8 vaesenc %xmm8, %xmm9, %xmm10 vmovdqa 176(%rdi), %xmm9 vaesenc %xmm9, %xmm10, %xmm11 vmovdqa 192(%rdi), %xmm10 vaesenc %xmm10, %xmm11, %xmm14 vmovdqa 208(%rdi), %xmm11 vaesenc %xmm11, %xmm14, %xmm14 vpxor .LCPI1_2(%rip), %xmm12, %xmm15 vpxor .LCPI1_3(%rip), %xmm12, %xmm12 vaesenc %xmm13, %xmm15, %xmm15 vaesenc %xmm13, %xmm12, %xmm12 vmovdqa 224(%rdi), %xmm13 vaesenclast %xmm13, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm2, %xmm15, %xmm15 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm5, %xmm15, %xmm15 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm10, %xmm15, %xmm15 vaesenc %xmm11, %xmm15, %xmm15 vaesenclast %xmm13, %xmm15, %xmm15 vaesenc %xmm0, %xmm12, %xmm0 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm11, %xmm0, %xmm0 vaesenclast %xmm13, %xmm0, %xmm0 vpxor %xmm14, %xmm15, %xmm4 vpxor %xmm0, %xmm14, %xmm5 vpslldq $4, %xmm4, %xmm0 vpslldq $8, %xmm4, %xmm1 vpxor %xmm1, %xmm0, %xmm1 vpslldq $12, %xmm4, %xmm2 vpbroadcastd .LCPI1_7(%rip), %xmm0 vpshufb %xmm0, %xmm5, %xmm3 vaesenclast .LCPI1_5(%rip), %xmm3, %xmm3 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm6 vmovdqa %xmm4, 64(%rsp) vaesenc %xmm5, %xmm4, %xmm1 vpslldq $4, %xmm5, %xmm2 vpslldq $8, %xmm5, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpslldq $12, %xmm5, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpshufd $255, %xmm6, %xmm3 vpxor %xmm10, %xmm10, %xmm10 vaesenclast %xmm10, %xmm3, %xmm3 vmovdqa %xmm5, 32(%rsp) vpxor %xmm5, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm7 vbroadcastss .LCPI1_6(%rip), %xmm3 vbroadcastss .LCPI1_7(%rip), %xmm2 vmovdqa %xmm6, 288(%rsp) #APP vaesenc %xmm6, %xmm1, %xmm1 vpslldq $4, %xmm6, %xmm4 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm6, %xmm4, %xmm4 vpshufb %xmm2, %xmm7, %xmm8 vaesenclast %xmm3, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 #NO_APP vmovdqa %xmm7, 256(%rsp) #APP vaesenc %xmm7, %xmm1, %xmm1 vpslldq $4, %xmm7, %xmm3 vpslldq $8, %xmm7, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpslldq $12, %xmm7, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm7, %xmm3, %xmm3 vpshufd $255, %xmm8, %xmm5 vaesenclast %xmm10, %xmm5, %xmm5 vpxor %xmm3, %xmm5, %xmm5 #NO_APP vmovaps %xmm5, %xmm7 vbroadcastss .LCPI1_8(%rip), %xmm3 vmovaps %xmm8, 192(%rsp) #APP vaesenc %xmm8, %xmm1, %xmm1 vpslldq $4, %xmm8, %xmm4 vpslldq $8, %xmm8, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm8, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm8, %xmm4 vpshufb %xmm2, %xmm7, %xmm12 vaesenclast %xmm3, %xmm12, %xmm12 vpxor %xmm4, %xmm12, %xmm12 #NO_APP vmovaps %xmm7, 240(%rsp) #APP vaesenc %xmm7, %xmm1, %xmm1 vpslldq $4, %xmm7, %xmm3 vpslldq $8, %xmm7, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpslldq $12, %xmm7, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm7, %xmm3, %xmm3 vpshufd $255, %xmm12, %xmm6 vaesenclast %xmm10, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 #NO_APP vbroadcastss .LCPI1_9(%rip), %xmm3 #APP vaesenc %xmm12, %xmm1, %xmm1 vpslldq $4, %xmm12, %xmm4 vpslldq $8, %xmm12, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm12, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm12, %xmm4 vpshufb %xmm2, %xmm6, %xmm8 vaesenclast %xmm3, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 #NO_APP #APP vaesenc %xmm6, %xmm1, %xmm1 vpslldq $4, %xmm6, %xmm3 vpslldq $8, %xmm6, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpslldq $12, %xmm6, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm6, %xmm3, %xmm3 vpshufd $255, %xmm8, %xmm7 vaesenclast %xmm10, %xmm7, %xmm7 vpxor %xmm3, %xmm7, %xmm7 #NO_APP vbroadcastss .LCPI1_10(%rip), %xmm3 #APP vaesenc %xmm8, %xmm1, %xmm1 vpslldq $4, %xmm8, %xmm4 vpslldq $8, %xmm8, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm8, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm8, %xmm4 vpshufb %xmm2, %xmm7, %xmm14 vaesenclast %xmm3, %xmm14, %xmm14 vpxor %xmm4, %xmm14, %xmm14 #NO_APP #APP vaesenc %xmm7, %xmm1, %xmm1 vpslldq $4, %xmm7, %xmm3 vpslldq $8, %xmm7, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpslldq $12, %xmm7, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm7, %xmm3, %xmm3 vpshufd $255, %xmm14, %xmm15 vaesenclast %xmm10, %xmm15, %xmm15 vpxor %xmm3, %xmm15, %xmm15 #NO_APP vbroadcastss .LCPI1_11(%rip), %xmm3 vmovaps %xmm14, 16(%rsp) #APP vaesenc %xmm14, %xmm1, %xmm1 vpslldq $4, %xmm14, %xmm4 vpslldq $8, %xmm14, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm14, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm14, %xmm4 vpshufb %xmm2, %xmm15, %xmm11 vaesenclast %xmm3, %xmm11, %xmm11 vpxor %xmm4, %xmm11, %xmm11 #NO_APP vmovdqa %xmm11, %xmm9 vpslldq $4, %xmm15, %xmm2 vpunpcklqdq %xmm15, %xmm10, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vinsertps $55, %xmm15, %xmm0, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpshufd $255, %xmm11, %xmm3 vaesenclast %xmm10, %xmm3, %xmm3 vpxor %xmm2, %xmm15, %xmm2 vpxor %xmm2, %xmm3, %xmm11 vpslldq $4, %xmm9, %xmm2 vpunpcklqdq %xmm9, %xmm10, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vinsertps $55, %xmm9, %xmm0, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpshufb %xmm0, %xmm11, %xmm0 vaesenclast .LCPI1_12(%rip), %xmm0, %xmm0 vpxor %xmm2, %xmm9, %xmm2 vpxor %xmm2, %xmm0, %xmm2 vmovdqa %xmm15, %xmm5 vaesenc %xmm15, %xmm1, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm11, %xmm0, %xmm0 vmovdqa %xmm2, 272(%rsp) vaesenclast %xmm2, %xmm0, %xmm0 vpshufb .LCPI1_13(%rip), %xmm0, %xmm0 vpsrlq $63, %xmm0, %xmm1 vpaddq %xmm0, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm2 vpor %xmm2, %xmm0, %xmm0 vpblendd $12, %xmm1, %xmm10, %xmm1 vpsllq $63, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpsllq $62, %xmm1, %xmm2 vpsllq $57, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpxor %xmm1, %xmm0, %xmm14 vpclmulqdq $0, %xmm14, %xmm14, %xmm0 vpbroadcastq .LCPI1_26(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $17, %xmm14, %xmm14, %xmm1 vpshufd $78, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm3 vmovdqa %xmm3, 352(%rsp) vpclmulqdq $16, %xmm14, %xmm3, %xmm0 vpclmulqdq $1, %xmm14, %xmm3, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm14, %xmm3, %xmm1 vpslldq $8, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm4, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm0, %xmm0 vpclmulqdq $17, %xmm14, %xmm3, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpshufd $78, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm10 vpclmulqdq $0, %xmm10, %xmm10, %xmm0 vpclmulqdq $16, %xmm4, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $17, %xmm10, %xmm10, %xmm1 vpshufd $78, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm15 vpclmulqdq $0, %xmm3, %xmm3, %xmm0 vpclmulqdq $16, %xmm4, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $17, %xmm3, %xmm3, %xmm1 vpshufd $78, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm13 vpclmulqdq $16, %xmm14, %xmm13, %xmm0 vpclmulqdq $1, %xmm14, %xmm13, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm14, %xmm13, %xmm1 vpslldq $8, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm4, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm0, %xmm0 vpclmulqdq $17, %xmm14, %xmm13, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpshufd $78, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vmovdqa %xmm0, 336(%rsp) movzbl 16(%rsi), %edi movzbl 17(%rsi), %r10d movzbl 23(%rsi), %r11d shll $8, %edi orl %edx, %edi shll $16, %r10d orl %edi, %r10d movzbl 18(%rsi), %edx shll $24, %edx orl %r10d, %edx vmovd %edx, %xmm0 vpinsrd $1, 19(%rsi), %xmm0, %xmm0 vpinsrd $2, %r11d, %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm0 vmovdqa %xmm0, 384(%rsp) testq %r8, %r8 vmovdqa %xmm12, 224(%rsp) vmovaps %xmm6, 208(%rsp) vmovdqa %xmm8, %xmm3 vmovdqa %xmm8, 160(%rsp) vmovdqa %xmm7, %xmm2 vmovdqa %xmm7, 112(%rsp) vmovdqa %xmm15, 368(%rsp) vmovdqa %xmm5, 48(%rsp) vmovaps %xmm9, 144(%rsp) vmovdqa %xmm11, 128(%rsp) je .LBB1_24 cmpq $96, %r8 jb .LBB1_7 vmovdqu 32(%rcx), %xmm1 vmovdqu 48(%rcx), %xmm2 vmovdqu 64(%rcx), %xmm3 vmovdqu 80(%rcx), %xmm4 vmovdqa .LCPI1_13(%rip), %xmm0 vpshufb %xmm0, %xmm1, %xmm5 vpshufb %xmm0, %xmm2, %xmm1 vpshufb %xmm0, %xmm3, %xmm2 vpshufb %xmm0, %xmm4, %xmm3 vpclmulqdq $0, %xmm3, %xmm14, %xmm4 vpclmulqdq $1, %xmm3, %xmm14, %xmm6 vpclmulqdq $16, %xmm3, %xmm14, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm14, %xmm3 vmovdqa 352(%rsp), %xmm8 vpclmulqdq $0, %xmm2, %xmm8, %xmm7 vpxor %xmm4, %xmm7, %xmm4 vpclmulqdq $1, %xmm2, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $17, %xmm2, %xmm8, %xmm2 vpxor %xmm3, %xmm2, %xmm2 vpclmulqdq $0, %xmm1, %xmm10, %xmm3 vpclmulqdq $1, %xmm1, %xmm10, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm13, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $16, %xmm1, %xmm10, %xmm7 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $1, %xmm5, %xmm13, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm5, %xmm13, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vmovdqu (%rcx), %xmm6 vmovdqa %xmm13, %xmm7 vpclmulqdq $17, %xmm5, %xmm13, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vmovdqu 16(%rcx), %xmm5 vpshufb %xmm0, %xmm6, %xmm6 vpshufb %xmm0, %xmm5, %xmm5 vmovdqa %xmm10, %xmm12 vpclmulqdq $17, %xmm1, %xmm10, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vmovdqa 336(%rsp), %xmm8 vpclmulqdq $0, %xmm5, %xmm8, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $1, %xmm5, %xmm8, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm5, %xmm8, %xmm4 vpclmulqdq $17, %xmm5, %xmm8, %xmm5 vpxor %xmm5, %xmm1, %xmm5 vpclmulqdq $0, %xmm6, %xmm15, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $1, %xmm6, %xmm15, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm6, %xmm15, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpclmulqdq $17, %xmm6, %xmm15, %xmm3 vpxor %xmm3, %xmm5, %xmm3 addq $96, %rcx leaq -96(%r8), %rsi cmpq $96, %rsi jb .LBB1_14 vmovdqa %xmm8, %xmm11 vmovdqa 368(%rsp), %xmm15 vmovdqa 352(%rsp), %xmm10 vmovdqa %xmm7, %xmm13 .p2align 4, 0x90 .LBB1_22: vmovdqu (%rcx), %xmm4 vmovdqu 32(%rcx), %xmm5 vmovdqu 48(%rcx), %xmm6 vmovdqu 64(%rcx), %xmm7 vmovdqu 80(%rcx), %xmm8 vpslldq $8, %xmm2, %xmm9 vpxor %xmm1, %xmm9, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpbroadcastq .LCPI1_26(%rip), %xmm9 vpclmulqdq $16, %xmm9, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm9, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpshufb %xmm0, %xmm4, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpxor %xmm3, %xmm1, %xmm3 vpshufb %xmm0, %xmm5, %xmm1 vpshufb %xmm0, %xmm6, %xmm2 vpshufb %xmm0, %xmm7, %xmm4 vpshufb %xmm0, %xmm8, %xmm5 vpclmulqdq $0, %xmm5, %xmm14, %xmm6 vpclmulqdq $1, %xmm5, %xmm14, %xmm7 vpclmulqdq $16, %xmm5, %xmm14, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm5, %xmm14, %xmm5 vpclmulqdq $0, %xmm4, %xmm10, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $1, %xmm4, %xmm10, %xmm8 vpclmulqdq $16, %xmm4, %xmm10, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm4, %xmm10, %xmm4 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $0, %xmm2, %xmm12, %xmm5 vpclmulqdq $1, %xmm2, %xmm12, %xmm8 vpclmulqdq $16, %xmm2, %xmm12, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpclmulqdq $0, %xmm1, %xmm13, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $1, %xmm1, %xmm13, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm2, %xmm12, %xmm2 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm1, %xmm13, %xmm7 vpxor %xmm7, %xmm2, %xmm2 vmovdqu 16(%rcx), %xmm7 vpshufb %xmm0, %xmm7, %xmm7 vpclmulqdq $16, %xmm1, %xmm13, %xmm1 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $0, %xmm7, %xmm11, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $1, %xmm7, %xmm11, %xmm5 vpxor %xmm5, %xmm1, %xmm1 vpclmulqdq $16, %xmm7, %xmm11, %xmm5 vpxor %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm6, %xmm5 vpclmulqdq $17, %xmm7, %xmm11, %xmm1 vpxor %xmm1, %xmm2, %xmm6 vpclmulqdq $0, %xmm3, %xmm15, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $1, %xmm3, %xmm15, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm3, %xmm15, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $17, %xmm3, %xmm15, %xmm3 vpxor %xmm3, %xmm6, %xmm3 addq $96, %rcx addq $-96, %rsi cmpq $95, %rsi ja .LBB1_22 jmp .LBB1_23 .LBB1_24: vpxor %xmm0, %xmm0, %xmm0 testq %r15, %r15 vmovdqa 16(%rsp), %xmm4 vmovdqa 64(%rsp), %xmm15 vmovdqa 32(%rsp), %xmm6 vmovdqa %xmm2, %xmm7 vmovdqa %xmm3, %xmm8 vmovdqa %xmm5, %xmm12 vpbroadcastq .LCPI1_26(%rip), %xmm5 jne .LBB1_30 jmp .LBB1_49 .LBB1_7: movq %r8, %rsi vmovdqa 32(%rsp), %xmm6 vpxor %xmm0, %xmm0, %xmm0 cmpq $16, %rsi vmovdqa 64(%rsp), %xmm15 jae .LBB1_15 .LBB1_9: movq %rsi, %rdx vmovdqa %xmm2, %xmm7 vmovdqa %xmm3, %xmm8 testq %rdx, %rdx jne .LBB1_11 jmp .LBB1_25 .LBB1_14: vmovdqa %xmm7, %xmm13 .LBB1_23: vpslldq $8, %xmm2, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpsrldq $8, %xmm2, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpbroadcastq .LCPI1_26(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $16, %xmm3, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vmovdqa 160(%rsp), %xmm3 vmovdqa 112(%rsp), %xmm2 vmovaps 144(%rsp), %xmm9 vmovdqa 48(%rsp), %xmm5 vmovdqa %xmm12, %xmm10 vmovdqa 32(%rsp), %xmm6 vmovdqa 128(%rsp), %xmm11 cmpq $16, %rsi vmovdqa 64(%rsp), %xmm15 jb .LBB1_9 .LBB1_15: leaq -16(%rsi), %rdx testb $16, %dl vmovdqa %xmm2, %xmm7 vmovdqa %xmm3, %xmm8 je .LBB1_16 cmpq $16, %rdx jae .LBB1_18 .LBB1_10: testq %rdx, %rdx je .LBB1_25 .LBB1_11: vmovdqa %xmm0, 176(%rsp) vmovdqa %xmm13, 304(%rsp) vmovdqa %xmm10, 320(%rsp) vmovdqa %xmm14, 96(%rsp) movq %r9, %r14 movq %r8, %rbx vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 80(%rsp) leaq 80(%rsp), %rdi movq %rcx, %rsi callq *memcpy@GOTPCREL(%rip) vmovdqa 80(%rsp), %xmm2 testq %r15, %r15 je .LBB1_12 movabsq $-68719476704, %rax leaq (%r15,%rax), %rcx incq %rax cmpq %rax, %rcx movl $0, %eax vmovdqa 64(%rsp), %xmm15 vmovdqa 32(%rsp), %xmm6 vmovdqa 160(%rsp), %xmm8 vmovdqa 16(%rsp), %xmm4 vmovdqa 48(%rsp), %xmm12 vmovaps 144(%rsp), %xmm9 vmovdqa 128(%rsp), %xmm11 vmovdqa 96(%rsp), %xmm14 vmovdqa 320(%rsp), %xmm10 vmovdqa 304(%rsp), %xmm13 vmovdqa 176(%rsp), %xmm0 jb .LBB1_50 movq %rbx, %r8 movq %r14, %r9 vmovdqa %xmm0, %xmm1 vpshufb .LCPI1_13(%rip), %xmm2, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm0, %xmm14, %xmm1 vpclmulqdq $1, %xmm0, %xmm14, %xmm2 vpclmulqdq $16, %xmm0, %xmm14, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm14, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_26(%rip), %xmm5 vpclmulqdq $16, %xmm5, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm5, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 jmp .LBB1_30 .LBB1_16: vmovdqa %xmm0, %xmm1 vmovdqu (%rcx), %xmm0 addq $16, %rcx vpshufb .LCPI1_13(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm0, %xmm14, %xmm1 vpclmulqdq $1, %xmm0, %xmm14, %xmm2 vpclmulqdq $16, %xmm0, %xmm14, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm14, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_26(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 movq %rdx, %rsi cmpq $16, %rdx jb .LBB1_10 .LBB1_18: vmovdqa %xmm0, %xmm3 vmovdqa .LCPI1_13(%rip), %xmm0 vpbroadcastq .LCPI1_26(%rip), %xmm12 .p2align 4, 0x90 .LBB1_19: vmovdqu (%rcx), %xmm1 vmovdqu 16(%rcx), %xmm2 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $0, %xmm1, %xmm14, %xmm3 vpclmulqdq $1, %xmm1, %xmm14, %xmm4 vpclmulqdq $16, %xmm1, %xmm14, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm1, %xmm14, %xmm1 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpsrldq $8, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $16, %xmm12, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm12, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 addq $32, %rcx addq $-32, %rsi vpshufb %xmm0, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $0, %xmm1, %xmm14, %xmm2 vpclmulqdq $1, %xmm1, %xmm14, %xmm3 vpclmulqdq $16, %xmm1, %xmm14, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm14, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm12, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm12, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm3 cmpq $15, %rsi ja .LBB1_19 movq %rsi, %rdx vmovdqa %xmm3, %xmm0 vmovdqa 48(%rsp), %xmm5 testq %rdx, %rdx jne .LBB1_11 .LBB1_25: vmovdqa %xmm5, %xmm12 testq %r15, %r15 vmovdqa 16(%rsp), %xmm4 je .LBB1_26 movabsq $-68719476704, %rcx leaq (%r15,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB1_50 .LBB1_30: vmovdqa 384(%rsp), %xmm1 vpshufb .LCPI1_15(%rip), %xmm1, %xmm1 movq 504(%rsp), %rdx vpaddd .LCPI1_16(%rip), %xmm1, %xmm2 cmpq $96, %r15 vmovdqa %xmm14, 96(%rsp) jb .LBB1_31 vmovdqa %xmm0, 176(%rsp) vmovdqa %xmm10, 320(%rsp) leaq 96(%r9), %rax leaq 96(%rdx), %rcx vmovdqa .LCPI1_13(%rip), %xmm10 vpshufb %xmm10, %xmm2, %xmm2 vpaddd .LCPI1_17(%rip), %xmm1, %xmm3 vpshufb %xmm10, %xmm3, %xmm3 vpaddd .LCPI1_18(%rip), %xmm1, %xmm4 vpaddd .LCPI1_19(%rip), %xmm1, %xmm5 vpshufb %xmm10, %xmm4, %xmm4 vpshufb %xmm10, %xmm5, %xmm5 vmovdqa %xmm8, %xmm0 vmovdqa %xmm10, %xmm8 vmovdqa %xmm6, %xmm10 vpaddd .LCPI1_20(%rip), %xmm1, %xmm6 vpshufb %xmm8, %xmm6, %xmm6 vpaddd .LCPI1_21(%rip), %xmm1, %xmm7 vpshufb %xmm8, %xmm7, %xmm7 vpaddd .LCPI1_22(%rip), %xmm1, %xmm1 vmovdqa %xmm1, (%rsp) vpxor %xmm2, %xmm15, %xmm1 vpxor %xmm3, %xmm15, %xmm2 vpxor %xmm4, %xmm15, %xmm4 vpxor %xmm5, %xmm15, %xmm5 vpxor %xmm6, %xmm15, %xmm6 vpxor %xmm7, %xmm15, %xmm7 #APP vaesenc %xmm10, %xmm1, %xmm1 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm4, %xmm4 vaesenc %xmm10, %xmm5, %xmm5 vaesenc %xmm10, %xmm6, %xmm6 vaesenc %xmm10, %xmm7, %xmm7 #NO_APP vmovaps 288(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm4, %xmm4 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm7, %xmm7 #NO_APP vmovaps 256(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm4, %xmm4 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm7, %xmm7 #NO_APP vmovaps 192(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm4, %xmm4 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm7, %xmm7 #NO_APP vmovaps 240(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm4, %xmm4 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm7, %xmm7 #NO_APP vmovaps 224(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm4, %xmm4 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm7, %xmm7 #NO_APP vmovaps 208(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm4, %xmm4 vaesenc %xmm3, %xmm5, %xmm5 vaesenc %xmm3, %xmm6, %xmm6 vaesenc %xmm3, %xmm7, %xmm7 #NO_APP #APP vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm7, %xmm7 #NO_APP vmovaps 112(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm7, %xmm7 #NO_APP vmovaps 16(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 vaesenc %xmm0, %xmm7, %xmm7 #NO_APP #APP vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm12, %xmm6, %xmm6 vaesenc %xmm12, %xmm7, %xmm7 #NO_APP #APP vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm9, %xmm6, %xmm6 vaesenc %xmm9, %xmm7, %xmm7 #NO_APP #APP vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm11, %xmm7, %xmm7 #NO_APP vmovaps 272(%rsp), %xmm0 #APP vaesenclast %xmm0, %xmm1, %xmm1 vaesenclast %xmm0, %xmm2, %xmm2 vaesenclast %xmm0, %xmm4, %xmm4 vaesenclast %xmm0, %xmm5, %xmm5 vaesenclast %xmm0, %xmm6, %xmm6 vaesenclast %xmm0, %xmm7, %xmm7 #NO_APP vpxor (%r9), %xmm1, %xmm3 vpxor 16(%r9), %xmm2, %xmm10 vpxor 32(%r9), %xmm4, %xmm4 vpxor 48(%r9), %xmm5, %xmm5 vpxor 64(%r9), %xmm6, %xmm11 vpxor 80(%r9), %xmm7, %xmm1 vmovdqu %xmm3, (%rdx) vmovdqu %xmm10, 16(%rdx) vmovdqu %xmm4, 32(%rdx) vmovdqu %xmm5, 48(%rdx) vmovdqu %xmm11, 64(%rdx) leaq -96(%r15), %rbx vmovdqu %xmm1, 80(%rdx) cmpq $96, %rbx jb .LBB1_37 vmovdqa %xmm13, 304(%rsp) vmovdqa 176(%rsp), %xmm9 vmovdqa (%rsp), %xmm8 .p2align 4, 0x90 .LBB1_40: vmovdqa %xmm5, 400(%rsp) vmovdqa %xmm4, 416(%rsp) vmovdqa %xmm10, 176(%rsp) vmovdqa .LCPI1_13(%rip), %xmm10 vpshufb %xmm10, %xmm8, %xmm2 vpaddd .LCPI1_16(%rip), %xmm8, %xmm4 vpshufb %xmm10, %xmm4, %xmm4 vpaddd .LCPI1_17(%rip), %xmm8, %xmm5 vpshufb %xmm10, %xmm5, %xmm5 vpaddd .LCPI1_18(%rip), %xmm8, %xmm6 vpshufb %xmm10, %xmm6, %xmm6 vpaddd .LCPI1_19(%rip), %xmm8, %xmm12 vpshufb %xmm10, %xmm12, %xmm12 vpaddd .LCPI1_20(%rip), %xmm8, %xmm13 vpshufb %xmm10, %xmm13, %xmm7 vpshufb %xmm10, %xmm3, %xmm3 vpxor %xmm3, %xmm9, %xmm0 vmovdqa %xmm0, (%rsp) vpshufb %xmm10, %xmm1, %xmm0 vmovdqa 64(%rsp), %xmm9 vpxor %xmm2, %xmm9, %xmm13 vpxor %xmm4, %xmm9, %xmm14 vpxor %xmm5, %xmm9, %xmm15 vpxor %xmm6, %xmm9, %xmm1 vpxor %xmm12, %xmm9, %xmm2 vpxor %xmm7, %xmm9, %xmm12 vmovaps 32(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm12, %xmm12 #NO_APP vxorps %xmm4, %xmm4, %xmm4 vpxor %xmm5, %xmm5, %xmm5 vpxor %xmm6, %xmm6, %xmm6 vmovaps 288(%rsp), %xmm9 vmovaps 96(%rsp), %xmm3 #APP vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm12, %xmm12 vpclmulqdq $16, %xmm3, %xmm0, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $0, %xmm3, %xmm0, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $17, %xmm3, %xmm0, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm0, %xmm7 vpxor %xmm7, %xmm5, %xmm5 #NO_APP vpshufb %xmm10, %xmm11, %xmm0 vmovaps 256(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm12, %xmm12 #NO_APP vmovaps 192(%rsp), %xmm3 vmovaps 352(%rsp), %xmm9 #APP vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm12, %xmm12 vpclmulqdq $16, %xmm9, %xmm0, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $0, %xmm9, %xmm0, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm0, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $1, %xmm9, %xmm0, %xmm7 vpxor %xmm7, %xmm5, %xmm5 #NO_APP vmovdqa 400(%rsp), %xmm0 vpshufb %xmm10, %xmm0, %xmm0 vmovaps 240(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm12, %xmm12 #NO_APP vmovaps 224(%rsp), %xmm3 vmovaps 320(%rsp), %xmm9 #APP vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm12, %xmm12 vpclmulqdq $16, %xmm9, %xmm0, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $0, %xmm9, %xmm0, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm0, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $1, %xmm9, %xmm0, %xmm7 vpxor %xmm7, %xmm5, %xmm5 #NO_APP vmovdqa 416(%rsp), %xmm0 vpshufb %xmm10, %xmm0, %xmm0 vmovaps 208(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm12, %xmm12 #NO_APP vmovaps 304(%rsp), %xmm9 vmovaps 160(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm12, %xmm12 vpclmulqdq $16, %xmm9, %xmm0, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $0, %xmm9, %xmm0, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm0, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $1, %xmm9, %xmm0, %xmm7 vpxor %xmm7, %xmm5, %xmm5 #NO_APP vmovdqa 176(%rsp), %xmm0 vpshufb %xmm10, %xmm0, %xmm0 vmovaps 112(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm12, %xmm12 #NO_APP vmovaps 336(%rsp), %xmm9 vmovaps 16(%rsp), %xmm3 #APP vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm12, %xmm12 vpclmulqdq $16, %xmm9, %xmm0, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $0, %xmm9, %xmm0, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm0, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $1, %xmm9, %xmm0, %xmm7 vpxor %xmm7, %xmm5, %xmm5 #NO_APP vmovaps 48(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm12, %xmm12 #NO_APP vmovdqa 144(%rsp), %xmm3 vmovdqa 368(%rsp), %xmm7 vmovaps (%rsp), %xmm9 #APP vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm3, %xmm14, %xmm14 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm3, %xmm12, %xmm12 vpclmulqdq $16, %xmm7, %xmm9, %xmm0 vpxor %xmm0, %xmm5, %xmm5 vpclmulqdq $0, %xmm7, %xmm9, %xmm0 vpxor %xmm0, %xmm4, %xmm4 vpclmulqdq $17, %xmm7, %xmm9, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpclmulqdq $1, %xmm7, %xmm9, %xmm0 vpxor %xmm0, %xmm5, %xmm5 #NO_APP vpxor %xmm3, %xmm3, %xmm3 vpunpcklqdq %xmm5, %xmm3, %xmm0 vpxor %xmm0, %xmm4, %xmm0 vpunpckhqdq %xmm3, %xmm5, %xmm3 vpxor %xmm3, %xmm6, %xmm3 vpbroadcastq .LCPI1_26(%rip), %xmm5 vpclmulqdq $16, %xmm5, %xmm0, %xmm4 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm4, %xmm0 vpshufd $78, %xmm0, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm9 vmovaps 128(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm12, %xmm12 #NO_APP vmovaps 272(%rsp), %xmm0 #APP vaesenclast %xmm0, %xmm13, %xmm13 vaesenclast %xmm0, %xmm14, %xmm14 vaesenclast %xmm0, %xmm15, %xmm15 vaesenclast %xmm0, %xmm1, %xmm1 vaesenclast %xmm0, %xmm2, %xmm2 vaesenclast %xmm0, %xmm12, %xmm12 #NO_APP vpxor (%rax), %xmm13, %xmm3 vpxor 16(%rax), %xmm14, %xmm10 vpxor 32(%rax), %xmm15, %xmm4 vpxor 48(%rax), %xmm1, %xmm5 vpxor 64(%rax), %xmm2, %xmm11 vpxor 80(%rax), %xmm12, %xmm1 addq $96, %rax vmovdqu %xmm3, (%rcx) vmovdqu %xmm10, 16(%rcx) vmovdqu %xmm4, 32(%rcx) vmovdqu %xmm5, 48(%rcx) vmovdqu %xmm11, 64(%rcx) vmovdqu %xmm1, 80(%rcx) addq $96, %rcx addq $-96, %rbx vpaddd .LCPI1_21(%rip), %xmm8, %xmm8 cmpq $95, %rbx ja .LBB1_40 vmovdqa %xmm8, (%rsp) vmovdqa 96(%rsp), %xmm14 vmovdqa 304(%rsp), %xmm13 vmovdqa 336(%rsp), %xmm12 vmovdqa .LCPI1_13(%rip), %xmm8 jmp .LBB1_38 .LBB1_31: vmovdqa %xmm2, (%rsp) movq %r15, %rbx vmovdqa 192(%rsp), %xmm5 movq %r8, %r12 cmpq $16, %rbx jae .LBB1_42 .LBB1_33: movq %rdx, %r14 movq %r9, %rsi vmovdqa (%rsp), %xmm14 jmp .LBB1_34 .LBB1_12: movq %rbx, %r8 jmp .LBB1_47 .LBB1_37: vmovdqa 176(%rsp), %xmm9 vmovdqa 336(%rsp), %xmm12 .LBB1_38: vpshufb %xmm8, %xmm3, %xmm2 vpxor %xmm2, %xmm9, %xmm2 vpshufb %xmm8, %xmm10, %xmm3 vpshufb %xmm8, %xmm4, %xmm4 vpshufb %xmm8, %xmm5, %xmm5 vpshufb %xmm8, %xmm11, %xmm6 vpshufb %xmm8, %xmm1, %xmm0 vpclmulqdq $0, %xmm0, %xmm14, %xmm1 vpclmulqdq $1, %xmm0, %xmm14, %xmm7 vpclmulqdq $16, %xmm0, %xmm14, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vmovdqa 352(%rsp), %xmm10 vpclmulqdq $0, %xmm6, %xmm10, %xmm8 vpxor %xmm1, %xmm8, %xmm1 vpclmulqdq $1, %xmm6, %xmm10, %xmm8 vpclmulqdq $16, %xmm6, %xmm10, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm0, %xmm14, %xmm0 vpclmulqdq $17, %xmm6, %xmm10, %xmm6 vpxor %xmm0, %xmm6, %xmm0 vmovdqa 320(%rsp), %xmm9 vpclmulqdq $1, %xmm5, %xmm9, %xmm6 vpclmulqdq $16, %xmm5, %xmm9, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm5, %xmm9, %xmm8 vpclmulqdq $17, %xmm5, %xmm9, %xmm5 vpclmulqdq $0, %xmm4, %xmm13, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpxor %xmm1, %xmm8, %xmm1 vpclmulqdq $1, %xmm4, %xmm13, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $16, %xmm4, %xmm13, %xmm7 vpclmulqdq $17, %xmm4, %xmm13, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpxor %xmm4, %xmm0, %xmm0 vpclmulqdq $0, %xmm3, %xmm12, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $1, %xmm3, %xmm12, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpclmulqdq $16, %xmm3, %xmm12, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $17, %xmm3, %xmm12, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vmovdqa 368(%rsp), %xmm5 vpclmulqdq $0, %xmm2, %xmm5, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $1, %xmm2, %xmm5, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm2, %xmm5, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $17, %xmm2, %xmm5, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_26(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpshufd $78, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 movq %rcx, %rdx movq %rax, %r9 vmovdqa 192(%rsp), %xmm5 vmovdqa 16(%rsp), %xmm4 movq %r8, %r12 cmpq $16, %rbx jb .LBB1_33 .LBB1_42: vmovdqa 96(%rsp), %xmm10 vmovdqa 256(%rsp), %xmm9 vmovdqa 144(%rsp), %xmm8 vmovdqa 48(%rsp), %xmm6 vmovdqa 128(%rsp), %xmm7 vmovdqa 240(%rsp), %xmm1 vmovdqa (%rsp), %xmm14 vmovdqa 208(%rsp), %xmm11 vmovdqa 224(%rsp), %xmm13 vmovdqa 112(%rsp), %xmm12 vmovdqa 160(%rsp), %xmm15 .p2align 4, 0x90 .LBB1_43: vmovdqa .LCPI1_13(%rip), %xmm3 vpshufb %xmm3, %xmm14, %xmm2 vpxor 64(%rsp), %xmm2, %xmm2 vaesenc 32(%rsp), %xmm2, %xmm2 vaesenc 288(%rsp), %xmm2, %xmm2 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm5, %xmm2, %xmm2 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm15, %xmm2, %xmm2 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm7, %xmm2, %xmm2 vaesenclast 272(%rsp), %xmm2, %xmm2 vpxor (%r9), %xmm2, %xmm2 vpshufb %xmm3, %xmm2, %xmm3 vmovdqu %xmm2, (%rdx) vpxor %xmm3, %xmm0, %xmm2 vpclmulqdq $1, %xmm2, %xmm10, %xmm3 vpclmulqdq $16, %xmm2, %xmm10, %xmm4 vmovdqa %xmm5, %xmm0 vpclmulqdq $0, %xmm2, %xmm10, %xmm5 vpxor %xmm3, %xmm4, %xmm3 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vmovdqa %xmm0, %xmm5 vpclmulqdq $17, %xmm2, %xmm10, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpbroadcastq .LCPI1_26(%rip), %xmm0 vpclmulqdq $16, %xmm0, %xmm4, %xmm3 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpshufd $78, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vmovdqa 16(%rsp), %xmm4 vpclmulqdq $16, %xmm0, %xmm3, %xmm3 vpxor %xmm2, %xmm3, %xmm0 leaq 16(%r9), %rsi leaq 16(%rdx), %r14 addq $-16, %rbx vpaddd .LCPI1_16(%rip), %xmm14, %xmm14 movq %r14, %rdx movq %rsi, %r9 cmpq $15, %rbx ja .LBB1_43 .LBB1_34: vmovdqa %xmm14, (%rsp) testq %rbx, %rbx je .LBB1_35 vmovdqa %xmm0, 176(%rsp) vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 80(%rsp) leaq 80(%rsp), %rdi movq memcpy@GOTPCREL(%rip), %r13 movq %rbx, %rdx callq *%r13 vmovdqa (%rsp), %xmm0 vpshufb .LCPI1_13(%rip), %xmm0, %xmm0 vpxor 64(%rsp), %xmm0, %xmm0 vaesenc 32(%rsp), %xmm0, %xmm0 vaesenc 288(%rsp), %xmm0, %xmm0 vaesenc 256(%rsp), %xmm0, %xmm0 vaesenc 192(%rsp), %xmm0, %xmm0 vaesenc 240(%rsp), %xmm0, %xmm0 vaesenc 224(%rsp), %xmm0, %xmm0 vaesenc 208(%rsp), %xmm0, %xmm0 vaesenc 160(%rsp), %xmm0, %xmm0 vaesenc 112(%rsp), %xmm0, %xmm0 vaesenc 16(%rsp), %xmm0, %xmm0 vaesenc 48(%rsp), %xmm0, %xmm0 vaesenc 144(%rsp), %xmm0, %xmm0 vaesenc 128(%rsp), %xmm0, %xmm0 vaesenclast 272(%rsp), %xmm0, %xmm0 vpxor 80(%rsp), %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) vmovdqa %xmm0, 80(%rsp) leaq 80(%rsp), %rsi movq %r14, %rdi movq %rbx, %rdx callq *%r13 testq %r15, %r15 je .LBB1_45 vmovdqa (%rsp), %xmm0 vmovdqa %xmm0, 432(%rsp) vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 80(%rsp) leaq 80(%rsp), %rdi leaq 432(%rsp), %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) vmovdqa 80(%rsp), %xmm2 movq %r12, %r8 .LBB1_47: vmovdqa 64(%rsp), %xmm15 vmovdqa 32(%rsp), %xmm6 vmovdqa 160(%rsp), %xmm8 vmovdqa 112(%rsp), %xmm7 vmovdqa 16(%rsp), %xmm4 vmovdqa 48(%rsp), %xmm12 vmovaps 144(%rsp), %xmm9 vmovdqa 128(%rsp), %xmm5 vpbroadcastq .LCPI1_26(%rip), %xmm10 vmovdqa 96(%rsp), %xmm14 jmp .LBB1_48 .LBB1_35: movq %r12, %r8 vpbroadcastq .LCPI1_26(%rip), %xmm5 vmovdqa 96(%rsp), %xmm14 vmovdqa 32(%rsp), %xmm6 vmovdqa 64(%rsp), %xmm15 vmovaps 144(%rsp), %xmm9 vmovdqa 48(%rsp), %xmm12 vmovdqa 128(%rsp), %xmm11 vmovdqa 112(%rsp), %xmm7 vmovdqa 160(%rsp), %xmm8 jmp .LBB1_49 .LBB1_45: movq %r12, %r8 vmovdqa 64(%rsp), %xmm15 vmovdqa 32(%rsp), %xmm6 vmovdqa 160(%rsp), %xmm8 vmovdqa 112(%rsp), %xmm7 vmovdqa 16(%rsp), %xmm4 vmovdqa 48(%rsp), %xmm12 vmovaps 144(%rsp), %xmm9 vmovdqa 128(%rsp), %xmm5 vpbroadcastq .LCPI1_26(%rip), %xmm10 vmovdqa 96(%rsp), %xmm14 vmovdqa (%rsp), %xmm2 .LBB1_48: vpshufb .LCPI1_13(%rip), %xmm2, %xmm0 vpxor 176(%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm14, %xmm1 vpclmulqdq $1, %xmm0, %xmm14, %xmm2 vpclmulqdq $16, %xmm0, %xmm14, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm14, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm10, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm10, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vmovdqa %xmm5, %xmm11 vmovdqa %xmm10, %xmm5 .LBB1_49: vmovdqa %xmm0, %xmm2 vmovq %r8, %xmm0 vmovq %r15, %xmm1 vpunpcklqdq %xmm0, %xmm1, %xmm0 vpsllq $3, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $1, %xmm0, %xmm14, %xmm1 vpclmulqdq $16, %xmm0, %xmm14, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $0, %xmm0, %xmm14, %xmm2 vpclmulqdq $17, %xmm0, %xmm14, %xmm0 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpclmulqdq $16, %xmm5, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm5, %xmm2, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpxor 384(%rsp), %xmm15, %xmm3 vaesenc %xmm6, %xmm3, %xmm3 vaesenc 288(%rsp), %xmm3, %xmm3 vaesenc 256(%rsp), %xmm3, %xmm3 vaesenc 192(%rsp), %xmm3, %xmm3 vaesenc 240(%rsp), %xmm3, %xmm3 vaesenc 224(%rsp), %xmm3, %xmm3 vaesenc 208(%rsp), %xmm3, %xmm3 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm11, %xmm3, %xmm3 vpshufb .LCPI1_23(%rip), %xmm1, %xmm1 vaesenclast 272(%rsp), %xmm3, %xmm3 vpshufb .LCPI1_24(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpshufb .LCPI1_13(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 movq 520(%rsp), %rax vmovdqu %xmm0, (%rax) movl $1, %eax .LBB1_50: addq $448, %rsp .cfi_def_cfa_offset 48 popq %rbx .cfi_def_cfa_offset 40 popq %r12 .cfi_def_cfa_offset 32 popq %r13 .cfi_def_cfa_offset 24 popq %r14 .cfi_def_cfa_offset 16 popq %r15 .cfi_def_cfa_offset 8 retq .LBB1_26: .cfi_def_cfa_offset 496 vpbroadcastq .LCPI1_26(%rip), %xmm5 jmp .LBB1_49 .Lfunc_end1: .size haberdashery_aes256gcmdndkv2_broadwell_encrypt, .Lfunc_end1-haberdashery_aes256gcmdndkv2_broadwell_encrypt .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 0 .LCPI2_1: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 96 .LCPI2_2: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 97 .LCPI2_3: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 98 .LCPI2_4: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI2_5: .quad 4294967297 .quad 4294967297 .LCPI2_12: .quad 274877907008 .quad 274877907008 .LCPI2_13: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_14: .zero 8 .quad -4467570830351532032 .LCPI2_15: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_16: .long 1 .long 0 .long 0 .long 0 .LCPI2_17: .long 2 .long 0 .long 0 .long 0 .LCPI2_18: .long 3 .long 0 .long 0 .long 0 .LCPI2_19: .long 4 .long 0 .long 0 .long 0 .LCPI2_20: .long 5 .long 0 .long 0 .long 0 .LCPI2_21: .long 6 .long 0 .long 0 .long 0 .LCPI2_22: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI2_23: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI2_24: .zero 16 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI2_6: .long 0x00000002 .LCPI2_7: .long 0x0c0f0e0d .LCPI2_8: .long 0x00000004 .LCPI2_9: .long 0x00000008 .LCPI2_10: .long 0x00000010 .LCPI2_11: .long 0x00000020 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI2_25: .quad -4467570830351532032 .section .text.haberdashery_aes256gcmdndkv2_broadwell_decrypt,"ax",@progbits .globl haberdashery_aes256gcmdndkv2_broadwell_decrypt .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2_broadwell_decrypt,@function haberdashery_aes256gcmdndkv2_broadwell_decrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $520, %rsp .cfi_def_cfa_offset 576 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 576(%rsp), %r15 xorl %eax, %eax cmpq 608(%rsp), %r15 jne .LBB2_45 movq %r15, %r10 shrq $5, %r10 cmpq $2147483646, %r10 ja .LBB2_45 movabsq $2305843009213693950, %r10 cmpq %r10, %r8 ja .LBB2_45 cmpq $24, %rdx jne .LBB2_45 cmpq $16, 592(%rsp) jne .LBB2_45 vmovdqu (%rsi), %xmm0 vpextrb $15, %xmm0, %edx vpand .LCPI2_0(%rip), %xmm0, %xmm0 vpxor (%rdi), %xmm0, %xmm12 vpxor .LCPI2_1(%rip), %xmm12, %xmm3 vmovdqa 16(%rdi), %xmm13 vmovdqa 32(%rdi), %xmm0 vmovdqa 48(%rdi), %xmm1 vmovdqa 64(%rdi), %xmm2 vaesenc %xmm13, %xmm3, %xmm3 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm2, %xmm3, %xmm4 vmovdqa 80(%rdi), %xmm3 vaesenc %xmm3, %xmm4, %xmm5 vmovdqa 96(%rdi), %xmm4 vaesenc %xmm4, %xmm5, %xmm6 vmovdqa 112(%rdi), %xmm5 vaesenc %xmm5, %xmm6, %xmm7 vmovdqa 128(%rdi), %xmm6 vaesenc %xmm6, %xmm7, %xmm8 vmovdqa 144(%rdi), %xmm7 vaesenc %xmm7, %xmm8, %xmm9 vmovdqa 160(%rdi), %xmm8 vaesenc %xmm8, %xmm9, %xmm10 vmovdqa 176(%rdi), %xmm9 vaesenc %xmm9, %xmm10, %xmm11 vmovdqa 192(%rdi), %xmm10 vaesenc %xmm10, %xmm11, %xmm14 vmovdqa 208(%rdi), %xmm11 vaesenc %xmm11, %xmm14, %xmm14 vpxor .LCPI2_2(%rip), %xmm12, %xmm15 vaesenc %xmm13, %xmm15, %xmm15 vpxor .LCPI2_3(%rip), %xmm12, %xmm12 vaesenc %xmm13, %xmm12, %xmm12 vmovdqa 224(%rdi), %xmm13 vaesenclast %xmm13, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm2, %xmm15, %xmm15 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm5, %xmm15, %xmm15 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm10, %xmm15, %xmm15 vaesenc %xmm11, %xmm15, %xmm15 vaesenclast %xmm13, %xmm15, %xmm15 vaesenc %xmm0, %xmm12, %xmm0 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm11, %xmm0, %xmm0 vaesenclast %xmm13, %xmm0, %xmm0 vpxor %xmm14, %xmm15, %xmm3 vpxor %xmm0, %xmm14, %xmm4 vpslldq $4, %xmm3, %xmm0 vpslldq $8, %xmm3, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm3, %xmm1 vpxor %xmm1, %xmm0, %xmm1 vpbroadcastd .LCPI2_7(%rip), %xmm0 vpshufb %xmm0, %xmm4, %xmm2 vaesenclast .LCPI2_5(%rip), %xmm2, %xmm2 vpxor %xmm3, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm7 vmovdqa %xmm3, 224(%rsp) vaesenc %xmm4, %xmm3, %xmm1 vpslldq $4, %xmm4, %xmm2 vpslldq $8, %xmm4, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpslldq $12, %xmm4, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpshufd $255, %xmm7, %xmm3 vpxor %xmm10, %xmm10, %xmm10 vaesenclast %xmm10, %xmm3, %xmm3 vmovdqa %xmm4, 288(%rsp) vpxor %xmm4, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm6 vbroadcastss .LCPI2_6(%rip), %xmm3 vbroadcastss .LCPI2_7(%rip), %xmm2 vmovdqa %xmm7, 32(%rsp) #APP vaesenc %xmm7, %xmm1, %xmm1 vpslldq $4, %xmm7, %xmm4 vpslldq $8, %xmm7, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm7, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm7, %xmm4, %xmm4 vpshufb %xmm2, %xmm6, %xmm15 vaesenclast %xmm3, %xmm15, %xmm15 vpxor %xmm4, %xmm15, %xmm15 #NO_APP vmovdqa %xmm6, 16(%rsp) #APP vaesenc %xmm6, %xmm1, %xmm1 vpslldq $4, %xmm6, %xmm3 vpslldq $8, %xmm6, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpslldq $12, %xmm6, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm6, %xmm3, %xmm3 vpshufd $255, %xmm15, %xmm8 vaesenclast %xmm10, %xmm8, %xmm8 vpxor %xmm3, %xmm8, %xmm8 #NO_APP vbroadcastss .LCPI2_8(%rip), %xmm3 #APP vaesenc %xmm15, %xmm1, %xmm1 vpslldq $4, %xmm15, %xmm4 vpslldq $8, %xmm15, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm15, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm15, %xmm4 vpshufb %xmm2, %xmm8, %xmm7 vaesenclast %xmm3, %xmm7, %xmm7 vpxor %xmm4, %xmm7, %xmm7 #NO_APP vmovaps %xmm8, 272(%rsp) #APP vaesenc %xmm8, %xmm1, %xmm1 vpslldq $4, %xmm8, %xmm3 vpslldq $8, %xmm8, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpslldq $12, %xmm8, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm8, %xmm3 vpshufd $255, %xmm7, %xmm11 vaesenclast %xmm10, %xmm11, %xmm11 vpxor %xmm3, %xmm11, %xmm11 #NO_APP vbroadcastss .LCPI2_9(%rip), %xmm3 vmovaps %xmm7, 256(%rsp) #APP vaesenc %xmm7, %xmm1, %xmm1 vpslldq $4, %xmm7, %xmm4 vpslldq $8, %xmm7, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm7, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm7, %xmm4, %xmm4 vpshufb %xmm2, %xmm11, %xmm6 vaesenclast %xmm3, %xmm6, %xmm6 vpxor %xmm4, %xmm6, %xmm6 #NO_APP vmovaps %xmm11, 160(%rsp) #APP vaesenc %xmm11, %xmm1, %xmm1 vpslldq $4, %xmm11, %xmm3 vpslldq $8, %xmm11, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpslldq $12, %xmm11, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm11, %xmm3 vpshufd $255, %xmm6, %xmm7 vaesenclast %xmm10, %xmm7, %xmm7 vpxor %xmm3, %xmm7, %xmm7 #NO_APP vbroadcastss .LCPI2_10(%rip), %xmm3 vmovaps %xmm6, 192(%rsp) #APP vaesenc %xmm6, %xmm1, %xmm1 vpslldq $4, %xmm6, %xmm4 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm6, %xmm4, %xmm4 vpshufb %xmm2, %xmm7, %xmm11 vaesenclast %xmm3, %xmm11, %xmm11 vpxor %xmm4, %xmm11, %xmm11 #NO_APP #APP vaesenc %xmm7, %xmm1, %xmm1 vpslldq $4, %xmm7, %xmm3 vpslldq $8, %xmm7, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpslldq $12, %xmm7, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpxor %xmm7, %xmm3, %xmm3 vpshufd $255, %xmm11, %xmm6 vaesenclast %xmm10, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 #NO_APP vbroadcastss .LCPI2_11(%rip), %xmm3 vmovdqa %xmm11, 176(%rsp) #APP vaesenc %xmm11, %xmm1, %xmm1 vpslldq $4, %xmm11, %xmm4 vpslldq $8, %xmm11, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm11, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm11, %xmm4 vpshufb %xmm2, %xmm6, %xmm8 vaesenclast %xmm3, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 #NO_APP vpslldq $4, %xmm6, %xmm2 vpunpcklqdq %xmm6, %xmm10, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vinsertps $55, %xmm6, %xmm0, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpshufd $255, %xmm8, %xmm3 vaesenclast %xmm10, %xmm3, %xmm3 vpxor %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm4 vpslldq $4, %xmm8, %xmm2 vpunpcklqdq %xmm8, %xmm10, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vinsertps $55, %xmm8, %xmm0, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpshufb %xmm0, %xmm4, %xmm0 vaesenclast .LCPI2_12(%rip), %xmm0, %xmm0 vpxor %xmm2, %xmm8, %xmm2 vpxor %xmm2, %xmm0, %xmm5 vaesenc %xmm6, %xmm1, %xmm0 vmovaps %xmm8, 144(%rsp) vaesenc %xmm8, %xmm0, %xmm0 vmovdqa %xmm4, 208(%rsp) vaesenc %xmm4, %xmm0, %xmm0 vaesenclast %xmm5, %xmm0, %xmm0 vpshufb .LCPI2_13(%rip), %xmm0, %xmm0 vpsrlq $63, %xmm0, %xmm1 vpaddq %xmm0, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm2 vpor %xmm2, %xmm0, %xmm0 vpblendd $12, %xmm1, %xmm10, %xmm1 vpsllq $63, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpsllq $62, %xmm1, %xmm2 vpsllq $57, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpxor %xmm1, %xmm0, %xmm10 vpclmulqdq $0, %xmm10, %xmm10, %xmm0 vpbroadcastq .LCPI2_25(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $17, %xmm10, %xmm10, %xmm1 vpshufd $78, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm12 vpclmulqdq $16, %xmm10, %xmm12, %xmm0 vpclmulqdq $1, %xmm10, %xmm12, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm10, %xmm12, %xmm1 vpslldq $8, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm0, %xmm0 vpclmulqdq $17, %xmm10, %xmm12, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpshufd $78, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm2 vmovdqa %xmm2, 352(%rsp) vpclmulqdq $0, %xmm2, %xmm2, %xmm0 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $17, %xmm2, %xmm2, %xmm1 vpshufd $78, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm13 vpclmulqdq $0, %xmm12, %xmm12, %xmm0 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $17, %xmm12, %xmm12, %xmm1 vpshufd $78, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm4 vmovdqa %xmm4, 336(%rsp) vpclmulqdq $16, %xmm10, %xmm4, %xmm0 vpclmulqdq $1, %xmm10, %xmm4, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm10, %xmm4, %xmm1 vpslldq $8, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm0, %xmm0 vpclmulqdq $17, %xmm10, %xmm4, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpshufd $78, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm14 movq 584(%rsp), %r12 movzbl 16(%rsi), %edi movzbl 17(%rsi), %r10d movzbl 23(%rsi), %r11d shll $8, %edi orl %edx, %edi shll $16, %r10d orl %edi, %r10d movzbl 18(%rsi), %edx shll $24, %edx orl %r10d, %edx vmovd %edx, %xmm0 vpinsrd $1, 19(%rsi), %xmm0, %xmm0 vpinsrd $2, %r11d, %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm0 vmovdqa %xmm0, 400(%rsp) testq %r8, %r8 vmovdqa %xmm5, 240(%rsp) vmovdqa %xmm10, 64(%rsp) vmovdqa %xmm12, 416(%rsp) vmovdqa %xmm15, 112(%rsp) vmovdqa %xmm7, 128(%rsp) vmovaps %xmm6, 96(%rsp) je .LBB2_38 cmpq $96, %r8 jb .LBB2_7 vmovdqu 32(%rcx), %xmm1 vmovdqu 48(%rcx), %xmm2 vmovdqu 64(%rcx), %xmm3 vmovdqu 80(%rcx), %xmm4 vmovdqa .LCPI2_13(%rip), %xmm0 vpshufb %xmm0, %xmm1, %xmm5 vpshufb %xmm0, %xmm2, %xmm1 vpshufb %xmm0, %xmm3, %xmm2 vpshufb %xmm0, %xmm4, %xmm3 vpclmulqdq $0, %xmm3, %xmm10, %xmm4 vpclmulqdq $1, %xmm3, %xmm10, %xmm6 vpclmulqdq $16, %xmm3, %xmm10, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm10, %xmm3 vpclmulqdq $0, %xmm2, %xmm12, %xmm7 vpxor %xmm4, %xmm7, %xmm4 vpclmulqdq $1, %xmm2, %xmm12, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm12, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpclmulqdq $17, %xmm2, %xmm12, %xmm2 vpxor %xmm3, %xmm2, %xmm2 vmovdqa 352(%rsp), %xmm8 vpclmulqdq $0, %xmm1, %xmm8, %xmm3 vpclmulqdq $1, %xmm1, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vmovdqa 336(%rsp), %xmm9 vpclmulqdq $0, %xmm5, %xmm9, %xmm7 vpxor %xmm7, %xmm4, %xmm4 vpclmulqdq $16, %xmm1, %xmm8, %xmm7 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $1, %xmm5, %xmm9, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm5, %xmm9, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vmovdqu (%rcx), %xmm6 vpclmulqdq $17, %xmm5, %xmm9, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vmovdqu 16(%rcx), %xmm5 vpshufb %xmm0, %xmm6, %xmm6 vpshufb %xmm0, %xmm5, %xmm5 vpclmulqdq $17, %xmm1, %xmm8, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $0, %xmm5, %xmm14, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $1, %xmm5, %xmm14, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm5, %xmm14, %xmm4 vmovdqa %xmm14, %xmm7 vpclmulqdq $17, %xmm5, %xmm14, %xmm5 vpxor %xmm5, %xmm1, %xmm5 vpclmulqdq $0, %xmm6, %xmm13, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $1, %xmm6, %xmm13, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm6, %xmm13, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vmovdqa %xmm13, %xmm14 vpclmulqdq $17, %xmm6, %xmm13, %xmm3 vpxor %xmm3, %xmm5, %xmm3 addq $96, %rcx leaq -96(%r8), %rsi vpbroadcastq .LCPI2_25(%rip), %xmm15 cmpq $96, %rsi jb .LBB2_11 vmovdqa 416(%rsp), %xmm12 vmovdqa 352(%rsp), %xmm11 vmovdqa %xmm14, %xmm13 vmovdqa 336(%rsp), %xmm10 vmovdqa %xmm7, %xmm14 .p2align 4, 0x90 .LBB2_22: vmovdqu (%rcx), %xmm4 vmovdqu 32(%rcx), %xmm5 vmovdqu 48(%rcx), %xmm6 vmovdqu 64(%rcx), %xmm7 vmovdqu 80(%rcx), %xmm8 vpslldq $8, %xmm2, %xmm9 vpxor %xmm1, %xmm9, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm15, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm15, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpshufb %xmm0, %xmm4, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpxor %xmm3, %xmm1, %xmm3 vpshufb %xmm0, %xmm5, %xmm1 vpshufb %xmm0, %xmm6, %xmm2 vpshufb %xmm0, %xmm7, %xmm4 vpshufb %xmm0, %xmm8, %xmm5 vmovdqa 64(%rsp), %xmm9 vpclmulqdq $0, %xmm5, %xmm9, %xmm6 vpclmulqdq $1, %xmm5, %xmm9, %xmm7 vpclmulqdq $16, %xmm5, %xmm9, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm5, %xmm9, %xmm5 vpclmulqdq $0, %xmm4, %xmm12, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $1, %xmm4, %xmm12, %xmm8 vpclmulqdq $16, %xmm4, %xmm12, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm4, %xmm12, %xmm4 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $0, %xmm2, %xmm11, %xmm5 vpclmulqdq $1, %xmm2, %xmm11, %xmm8 vpclmulqdq $16, %xmm2, %xmm11, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpclmulqdq $0, %xmm1, %xmm10, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $1, %xmm1, %xmm10, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm2, %xmm11, %xmm2 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm1, %xmm10, %xmm7 vpxor %xmm7, %xmm2, %xmm2 vmovdqu 16(%rcx), %xmm7 vpshufb %xmm0, %xmm7, %xmm7 vpclmulqdq $16, %xmm1, %xmm10, %xmm1 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $0, %xmm7, %xmm14, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $1, %xmm7, %xmm14, %xmm5 vpxor %xmm5, %xmm1, %xmm1 vpclmulqdq $16, %xmm7, %xmm14, %xmm5 vpxor %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm6, %xmm5 vpclmulqdq $17, %xmm7, %xmm14, %xmm1 vpxor %xmm1, %xmm2, %xmm6 vpclmulqdq $0, %xmm3, %xmm13, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $1, %xmm3, %xmm13, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm3, %xmm13, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $17, %xmm3, %xmm13, %xmm3 vpxor %xmm3, %xmm6, %xmm3 addq $96, %rcx addq $-96, %rsi cmpq $95, %rsi ja .LBB2_22 jmp .LBB2_23 .LBB2_38: vpxor %xmm4, %xmm4, %xmm4 xorl %r8d, %r8d testq %r15, %r15 vmovdqa 16(%rsp), %xmm5 vmovdqa 32(%rsp), %xmm9 jne .LBB2_27 jmp .LBB2_39 .LBB2_7: movq %r8, %rsi vmovdqa 16(%rsp), %xmm5 vpxor %xmm4, %xmm4, %xmm4 vmovdqa 32(%rsp), %xmm9 cmpq $16, %rsi jae .LBB2_12 .LBB2_9: movq %rsi, %rdx testq %rdx, %rdx jne .LBB2_24 jmp .LBB2_19 .LBB2_11: vmovdqa %xmm14, %xmm13 vmovdqa %xmm7, %xmm14 .LBB2_23: vpslldq $8, %xmm2, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpsrldq $8, %xmm2, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm15, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $16, %xmm15, %xmm0, %xmm2 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm4 vmovaps 96(%rsp), %xmm6 vmovdqa %xmm15, %xmm3 vmovdqa 64(%rsp), %xmm10 vmovdqa 32(%rsp), %xmm9 vmovdqa 16(%rsp), %xmm5 vmovdqa 112(%rsp), %xmm15 vmovdqa 128(%rsp), %xmm7 cmpq $16, %rsi jb .LBB2_9 .LBB2_12: leaq -16(%rsi), %rdx testb $16, %dl je .LBB2_13 cmpq $16, %rdx jae .LBB2_15 .LBB2_18: testq %rdx, %rdx je .LBB2_19 .LBB2_24: vmovdqa %xmm4, 80(%rsp) vmovdqa %xmm14, 304(%rsp) vmovdqa %xmm13, 320(%rsp) movq %r9, %rbx vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 48(%rsp) leaq 48(%rsp), %rdi movq %rcx, %rsi movq %r8, %r14 callq *memcpy@GOTPCREL(%rip) movq %r14, %r8 vmovdqa 48(%rsp), %xmm0 shlq $3, %r8 testq %r15, %r15 je .LBB2_46 movabsq $-68719476704, %rax leaq (%r15,%rax), %rcx incq %rax cmpq %rax, %rcx movl $0, %eax vmovdqa 16(%rsp), %xmm5 vmovdqa 112(%rsp), %xmm15 vmovaps 96(%rsp), %xmm6 vmovdqa 64(%rsp), %xmm10 vmovdqa 320(%rsp), %xmm13 vmovdqa 304(%rsp), %xmm14 vmovdqa 80(%rsp), %xmm1 jb .LBB2_45 movq %rbx, %r9 vpshufb .LCPI2_13(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm0, %xmm10, %xmm1 vpclmulqdq $1, %xmm0, %xmm10, %xmm2 vpclmulqdq $16, %xmm0, %xmm10, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm10, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpbroadcastq .LCPI2_25(%rip), %xmm3 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm4 jmp .LBB2_27 .LBB2_13: vmovdqu (%rcx), %xmm0 addq $16, %rcx vpshufb .LCPI2_13(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm4, %xmm0 vpclmulqdq $0, %xmm0, %xmm10, %xmm1 vpclmulqdq $1, %xmm0, %xmm10, %xmm2 vpclmulqdq $16, %xmm0, %xmm10, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm10, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpbroadcastq .LCPI2_25(%rip), %xmm3 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm4 movq %rdx, %rsi cmpq $16, %rdx jb .LBB2_18 .LBB2_15: vmovdqa .LCPI2_13(%rip), %xmm0 vmovdqa %xmm3, %xmm12 .p2align 4, 0x90 .LBB2_16: vmovdqu (%rcx), %xmm1 vmovdqu 16(%rcx), %xmm2 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $0, %xmm1, %xmm10, %xmm3 vpclmulqdq $1, %xmm1, %xmm10, %xmm4 vpclmulqdq $16, %xmm1, %xmm10, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm1, %xmm10, %xmm1 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpsrldq $8, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpclmulqdq $16, %xmm12, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm12, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 addq $32, %rcx addq $-32, %rsi vpshufb %xmm0, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm4, %xmm1 vpclmulqdq $0, %xmm1, %xmm10, %xmm2 vpclmulqdq $1, %xmm1, %xmm10, %xmm3 vpclmulqdq $16, %xmm1, %xmm10, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm10, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm12, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm12, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm4 cmpq $15, %rsi ja .LBB2_16 movq %rsi, %rdx vmovdqa %xmm12, %xmm3 vmovdqa 32(%rsp), %xmm9 vmovdqa 16(%rsp), %xmm5 testq %rdx, %rdx jne .LBB2_24 .LBB2_19: shlq $3, %r8 testq %r15, %r15 je .LBB2_39 movabsq $-68719476704, %rcx leaq (%r15,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB2_45 .LBB2_27: vmovdqa 400(%rsp), %xmm0 vpshufb .LCPI2_15(%rip), %xmm0, %xmm0 movq 600(%rsp), %rax vpaddd .LCPI2_16(%rip), %xmm0, %xmm2 movq %r15, %rbx cmpq $96, %r15 jb .LBB2_28 vmovdqa %xmm13, 320(%rsp) vmovdqa %xmm14, 304(%rsp) .p2align 4, 0x90 .LBB2_32: vmovdqa %xmm2, (%rsp) vmovdqa 224(%rsp), %xmm9 vmovdqu (%r9), %xmm7 vmovdqa %xmm7, 368(%rsp) vmovups 32(%r9), %xmm1 vmovaps %xmm1, 80(%rsp) vmovdqu 48(%r9), %xmm11 vmovdqa %xmm11, 448(%rsp) vmovdqa %xmm4, %xmm10 vmovdqu 64(%r9), %xmm4 vmovdqa %xmm4, 480(%rsp) vmovdqu 80(%r9), %xmm8 vmovdqa %xmm8, 384(%rsp) vmovdqa .LCPI2_13(%rip), %xmm12 vmovdqa (%rsp), %xmm0 vpshufb %xmm12, %xmm0, %xmm0 vmovdqa (%rsp), %xmm1 vpaddd .LCPI2_16(%rip), %xmm1, %xmm1 vpshufb %xmm12, %xmm1, %xmm1 vmovdqa (%rsp), %xmm2 vpaddd .LCPI2_17(%rip), %xmm2, %xmm2 vpshufb %xmm12, %xmm2, %xmm2 vmovdqa (%rsp), %xmm3 vpaddd .LCPI2_18(%rip), %xmm3, %xmm3 vpshufb %xmm12, %xmm3, %xmm3 vmovdqa (%rsp), %xmm5 vpaddd .LCPI2_19(%rip), %xmm5, %xmm5 vpshufb %xmm12, %xmm5, %xmm5 vmovdqa (%rsp), %xmm6 vpaddd .LCPI2_20(%rip), %xmm6, %xmm6 vpshufb %xmm12, %xmm6, %xmm6 vpshufb %xmm12, %xmm7, %xmm7 vpxor %xmm7, %xmm10, %xmm7 vmovdqa %xmm7, 464(%rsp) vpshufb %xmm12, %xmm8, %xmm10 vpxor %xmm0, %xmm9, %xmm14 vpxor %xmm1, %xmm9, %xmm15 vpxor %xmm2, %xmm9, %xmm1 vpxor %xmm3, %xmm9, %xmm2 vpxor %xmm5, %xmm9, %xmm3 vpxor 224(%rsp), %xmm6, %xmm13 vmovaps 288(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm13, %xmm13 #NO_APP vpxor %xmm5, %xmm5, %xmm5 vpxor %xmm6, %xmm6, %xmm6 vpxor %xmm7, %xmm7, %xmm7 vmovaps 64(%rsp), %xmm8 vmovaps 32(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm13, %xmm13 vpclmulqdq $16, %xmm8, %xmm10, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpclmulqdq $0, %xmm8, %xmm10, %xmm0 vpxor %xmm0, %xmm5, %xmm5 vpclmulqdq $17, %xmm8, %xmm10, %xmm0 vpxor %xmm0, %xmm7, %xmm7 vpclmulqdq $1, %xmm8, %xmm10, %xmm0 vpxor %xmm0, %xmm6, %xmm6 #NO_APP vpshufb %xmm12, %xmm4, %xmm0 vmovaps 16(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vmovaps 112(%rsp), %xmm8 vmovaps 416(%rsp), %xmm9 #APP vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm13, %xmm13 vpclmulqdq $16, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm6 vpclmulqdq $0, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 vpclmulqdq $17, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm7, %xmm7 vpclmulqdq $1, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm6 #NO_APP vpshufb %xmm12, %xmm11, %xmm0 vmovaps 272(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vmovaps 256(%rsp), %xmm8 vmovaps 352(%rsp), %xmm9 #APP vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm13, %xmm13 vpclmulqdq $16, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm6 vpclmulqdq $0, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 vpclmulqdq $17, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm7, %xmm7 vpclmulqdq $1, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm6 #NO_APP vmovdqa 80(%rsp), %xmm0 vpshufb %xmm12, %xmm0, %xmm0 vmovaps 160(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vmovaps 336(%rsp), %xmm8 vmovdqa 192(%rsp), %xmm11 #APP vaesenc %xmm11, %xmm14, %xmm14 vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm13, %xmm13 vpclmulqdq $16, %xmm8, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm6 vpclmulqdq $0, %xmm8, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 vpclmulqdq $17, %xmm8, %xmm0, %xmm4 vpxor %xmm4, %xmm7, %xmm7 vpclmulqdq $1, %xmm8, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm6 #NO_APP vmovdqu 16(%r9), %xmm0 vmovdqa %xmm0, 432(%rsp) vmovaps 128(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vpshufb %xmm12, %xmm0, %xmm4 vmovaps 176(%rsp), %xmm8 vmovaps 304(%rsp), %xmm12 #APP vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm13, %xmm13 vpclmulqdq $16, %xmm12, %xmm4, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $0, %xmm12, %xmm4, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $17, %xmm12, %xmm4, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $1, %xmm12, %xmm4, %xmm9 vpxor %xmm6, %xmm9, %xmm6 #NO_APP vmovdqa 240(%rsp), %xmm8 vmovaps 96(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vmovdqa 144(%rsp), %xmm12 vmovdqa 320(%rsp), %xmm9 vmovaps 464(%rsp), %xmm0 #APP vaesenc %xmm12, %xmm14, %xmm14 vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm13, %xmm13 vpclmulqdq $16, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm6 vpclmulqdq $0, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 vpclmulqdq $17, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm7, %xmm7 vpclmulqdq $1, %xmm9, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm6 #NO_APP vpxor %xmm12, %xmm12, %xmm12 vpunpcklqdq %xmm6, %xmm12, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpunpckhqdq %xmm12, %xmm6, %xmm5 vpxor %xmm5, %xmm7, %xmm5 vpbroadcastq .LCPI2_25(%rip), %xmm7 vpclmulqdq $16, %xmm7, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpshufd $78, %xmm4, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpclmulqdq $16, %xmm7, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm5 vmovaps 208(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP #APP vaesenclast %xmm8, %xmm14, %xmm14 vaesenclast %xmm8, %xmm15, %xmm15 vaesenclast %xmm8, %xmm1, %xmm1 vaesenclast %xmm8, %xmm2, %xmm2 vaesenclast %xmm8, %xmm3, %xmm3 vaesenclast %xmm8, %xmm13, %xmm13 #NO_APP vpxor 368(%rsp), %xmm14, %xmm4 vpxor 432(%rsp), %xmm15, %xmm0 vpxor 80(%rsp), %xmm1, %xmm1 vxorps 448(%rsp), %xmm2, %xmm2 vpxor 480(%rsp), %xmm3, %xmm3 vmovdqu %xmm4, (%rax) vmovdqa %xmm5, %xmm4 vmovdqu %xmm0, 16(%rax) vmovdqu %xmm1, 32(%rax) vmovups %xmm2, 48(%rax) vmovdqu %xmm3, 64(%rax) vpxor 384(%rsp), %xmm13, %xmm0 vmovdqu %xmm0, 80(%rax) vmovdqa (%rsp), %xmm2 addq $96, %r9 addq $96, %rax addq $-96, %rbx vpaddd .LCPI2_21(%rip), %xmm2, %xmm2 cmpq $95, %rbx ja .LBB2_32 vmovdqa 16(%rsp), %xmm5 vmovdqa 112(%rsp), %xmm15 vmovdqa 160(%rsp), %xmm1 vmovaps 96(%rsp), %xmm6 vmovdqa 144(%rsp), %xmm0 vmovdqa 208(%rsp), %xmm11 cmpq $16, %rbx vmovdqa 192(%rsp), %xmm8 jae .LBB2_34 .LBB2_30: movq %rax, %r14 vmovdqa %xmm2, %xmm7 jmp .LBB2_36 .LBB2_28: vmovdqa 144(%rsp), %xmm0 vmovdqa 208(%rsp), %xmm11 vmovdqa 160(%rsp), %xmm1 cmpq $16, %rbx vmovdqa 192(%rsp), %xmm8 jb .LBB2_30 .LBB2_34: vmovdqa 64(%rsp), %xmm13 vmovdqa %xmm2, %xmm7 vmovdqa 272(%rsp), %xmm12 vmovdqa 192(%rsp), %xmm8 .p2align 4, 0x90 .LBB2_35: vmovdqu (%r9), %xmm2 vmovdqa .LCPI2_13(%rip), %xmm3 vpshufb %xmm3, %xmm2, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $0, %xmm3, %xmm13, %xmm4 vmovdqa %xmm5, %xmm9 vpclmulqdq $1, %xmm3, %xmm13, %xmm5 vmovaps %xmm6, %xmm14 vpclmulqdq $16, %xmm3, %xmm13, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vmovaps %xmm14, %xmm6 vmovdqa 240(%rsp), %xmm14 vpclmulqdq $17, %xmm3, %xmm13, %xmm3 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpbroadcastq .LCPI2_25(%rip), %xmm10 vpclmulqdq $16, %xmm10, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpshufd $78, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vmovdqa %xmm9, %xmm5 vmovdqa 256(%rsp), %xmm9 vpclmulqdq $16, %xmm10, %xmm4, %xmm4 vpxor %xmm3, %xmm4, %xmm4 vpshufb .LCPI2_13(%rip), %xmm7, %xmm3 vmovdqa 224(%rsp), %xmm10 vpxor %xmm3, %xmm10, %xmm3 vaesenc 288(%rsp), %xmm3, %xmm3 vaesenc 32(%rsp), %xmm3, %xmm3 vaesenc %xmm5, %xmm3, %xmm3 vaesenc %xmm15, %xmm3, %xmm3 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm8, %xmm3, %xmm3 vaesenc 128(%rsp), %xmm3, %xmm3 vaesenc 176(%rsp), %xmm3, %xmm3 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm11, %xmm3, %xmm3 vaesenclast %xmm14, %xmm3, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vmovdqu %xmm2, (%rax) leaq 16(%rax), %r14 addq $-16, %rbx addq $16, %r9 vpaddd .LCPI2_16(%rip), %xmm7, %xmm7 movq %r14, %rax cmpq $15, %rbx ja .LBB2_35 .LBB2_36: vmovdqa %xmm7, (%rsp) vmovdqa %xmm4, 80(%rsp) testq %rbx, %rbx je .LBB2_37 movq %r8, %r13 vpxor %xmm2, %xmm2, %xmm2 vmovdqa %xmm2, 48(%rsp) leaq 48(%rsp), %rdi movq memcpy@GOTPCREL(%rip), %rbp movq %r9, %rsi movq %rbx, %rdx callq *%rbp vmovdqa 48(%rsp), %xmm1 vmovdqa (%rsp), %xmm0 vpshufb .LCPI2_13(%rip), %xmm0, %xmm0 vpxor 224(%rsp), %xmm0, %xmm0 vaesenc 288(%rsp), %xmm0, %xmm0 vaesenc 32(%rsp), %xmm0, %xmm0 vaesenc 16(%rsp), %xmm0, %xmm0 vaesenc 112(%rsp), %xmm0, %xmm0 vaesenc 272(%rsp), %xmm0, %xmm0 vaesenc 256(%rsp), %xmm0, %xmm0 vaesenc 160(%rsp), %xmm0, %xmm0 vaesenc 192(%rsp), %xmm0, %xmm0 vaesenc 128(%rsp), %xmm0, %xmm0 vaesenc 176(%rsp), %xmm0, %xmm0 vaesenc 96(%rsp), %xmm0, %xmm0 vaesenc 144(%rsp), %xmm0, %xmm0 vaesenc 208(%rsp), %xmm0, %xmm0 vaesenclast 240(%rsp), %xmm0, %xmm0 vmovdqa %xmm1, 384(%rsp) vpxor %xmm1, %xmm0, %xmm0 vmovdqa %xmm0, 368(%rsp) vmovdqa %xmm0, 48(%rsp) leaq 48(%rsp), %rsi movq %r14, %rdi movq %rbx, %rdx callq *%rbp vmovups (%r12), %xmm0 vmovaps %xmm0, (%rsp) testq %r15, %r15 je .LBB2_41 vmovaps 384(%rsp), %xmm0 vmovaps %xmm0, 496(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 48(%rsp) leaq 48(%rsp), %rdi leaq 496(%rsp), %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) vmovdqa 48(%rsp), %xmm0 movq %r13, %r8 jmp .LBB2_43 .LBB2_37: vmovdqu (%r12), %xmm13 vpbroadcastq .LCPI2_25(%rip), %xmm4 vmovdqa %xmm1, %xmm9 vmovdqa 64(%rsp), %xmm10 vmovdqa 32(%rsp), %xmm12 vmovdqa %xmm0, %xmm11 vmovdqa 128(%rsp), %xmm7 vmovdqa 80(%rsp), %xmm2 vmovdqa 176(%rsp), %xmm14 jmp .LBB2_44 .LBB2_46: vpshufb .LCPI2_13(%rip), %xmm0, %xmm0 vpxor 80(%rsp), %xmm0, %xmm0 vmovdqa 64(%rsp), %xmm10 vpclmulqdq $0, %xmm0, %xmm10, %xmm1 vpclmulqdq $1, %xmm0, %xmm10, %xmm2 vpclmulqdq $16, %xmm0, %xmm10, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm10, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI2_25(%rip), %xmm3 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm3, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm4 vmovdqa 32(%rsp), %xmm9 vmovdqa 16(%rsp), %xmm5 vmovdqa 112(%rsp), %xmm15 vmovdqa 128(%rsp), %xmm7 vmovaps 96(%rsp), %xmm6 .LBB2_39: vmovdqu (%r12), %xmm13 vmovdqa %xmm4, %xmm2 vmovdqa %xmm3, %xmm4 vmovdqa 192(%rsp), %xmm8 vmovdqa 144(%rsp), %xmm11 vmovdqa 176(%rsp), %xmm14 vmovdqa %xmm9, %xmm12 vmovdqa 160(%rsp), %xmm9 jmp .LBB2_44 .LBB2_41: movq %r13, %r8 vmovdqa 368(%rsp), %xmm0 .LBB2_43: vpshufb .LCPI2_13(%rip), %xmm0, %xmm0 vpxor 80(%rsp), %xmm0, %xmm0 vmovdqa 64(%rsp), %xmm10 vpclmulqdq $0, %xmm0, %xmm10, %xmm1 vpclmulqdq $1, %xmm0, %xmm10, %xmm2 vpclmulqdq $16, %xmm0, %xmm10, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm10, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI2_25(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $16, %xmm4, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm2 vmovdqa 32(%rsp), %xmm12 vmovdqa 16(%rsp), %xmm5 vmovdqa 112(%rsp), %xmm15 vmovdqa 160(%rsp), %xmm9 vmovdqa 192(%rsp), %xmm8 vmovdqa 128(%rsp), %xmm7 vmovdqa 176(%rsp), %xmm14 vmovaps 96(%rsp), %xmm6 vmovdqa 144(%rsp), %xmm11 vmovdqa (%rsp), %xmm13 .LBB2_44: shlq $3, %r15 vmovq %r8, %xmm0 vmovq %r15, %xmm1 vpunpcklqdq %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $1, %xmm0, %xmm10, %xmm1 vpclmulqdq $16, %xmm0, %xmm10, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $0, %xmm0, %xmm10, %xmm2 vpclmulqdq $17, %xmm0, %xmm10, %xmm0 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vmovdqa 224(%rsp), %xmm3 vpxor 400(%rsp), %xmm3, %xmm3 vaesenc 288(%rsp), %xmm3, %xmm3 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm5, %xmm3, %xmm3 vaesenc %xmm15, %xmm3, %xmm3 vaesenc 272(%rsp), %xmm3, %xmm3 vaesenc 256(%rsp), %xmm3, %xmm3 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm14, %xmm3, %xmm3 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm11, %xmm3, %xmm3 vaesenc 208(%rsp), %xmm3, %xmm3 vaesenclast 240(%rsp), %xmm3, %xmm3 vpshufb .LCPI2_22(%rip), %xmm1, %xmm1 vpshufb .LCPI2_23(%rip), %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm1 vpshufb .LCPI2_13(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm3, %xmm0, %xmm0 xorl %eax, %eax vptest %xmm0, %xmm0 sete %al .LBB2_45: addq $520, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end2: .size haberdashery_aes256gcmdndkv2_broadwell_decrypt, .Lfunc_end2-haberdashery_aes256gcmdndkv2_broadwell_decrypt .cfi_endproc .section .text.haberdashery_aes256gcmdndkv2_broadwell_is_supported,"ax",@progbits .globl haberdashery_aes256gcmdndkv2_broadwell_is_supported .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2_broadwell_is_supported,@function haberdashery_aes256gcmdndkv2_broadwell_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $786729, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end3: .size haberdashery_aes256gcmdndkv2_broadwell_is_supported, .Lfunc_end3-haberdashery_aes256gcmdndkv2_broadwell_is_supported .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
78,059
asm/aes256gcmdndkv2kc_skylakex.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_1: .quad 4294967297 .LCPI0_2: .quad 8589934594 .LCPI0_3: .quad 17179869188 .LCPI0_4: .quad 34359738376 .LCPI0_5: .quad 68719476752 .LCPI0_6: .quad 137438953504 .LCPI0_7: .quad 274877907008 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI0_8: .byte 13 .byte 14 .byte 15 .byte 12 .section .text.haberdashery_aes256gcmdndkv2kc_skylakex_init,"ax",@progbits .globl haberdashery_aes256gcmdndkv2kc_skylakex_init .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2kc_skylakex_init,@function haberdashery_aes256gcmdndkv2kc_skylakex_init: .cfi_startproc cmpq $32, %rdx jne .LBB0_2 vmovupd (%rsi), %xmm0 vmovdqu 16(%rsi), %xmm1 vpslldq $4, %xmm0, %xmm2 vpslldq $8, %xmm0, %xmm3 vpslldq $12, %xmm0, %xmm4 vpternlogq $150, %xmm3, %xmm2, %xmm4 vpbroadcastd .LCPI0_8(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm2 vpbroadcastq .LCPI0_1(%rip), %xmm5 vaesenclast %xmm5, %xmm2, %xmm2 vpternlogq $150, %xmm4, %xmm0, %xmm2 vpslldq $4, %xmm1, %xmm4 vpslldq $8, %xmm1, %xmm5 vpslldq $12, %xmm1, %xmm7 vpternlogq $150, %xmm5, %xmm4, %xmm7 vpshufd $255, %xmm2, %xmm4 vpxor %xmm6, %xmm6, %xmm6 vaesenclast %xmm6, %xmm4, %xmm4 vpternlogq $150, %xmm7, %xmm1, %xmm4 vpslldq $4, %xmm2, %xmm5 vpslldq $8, %xmm2, %xmm7 vpslldq $12, %xmm2, %xmm8 vpternlogq $150, %xmm7, %xmm5, %xmm8 vpshufb %xmm3, %xmm4, %xmm5 vpbroadcastq .LCPI0_2(%rip), %xmm7 vaesenclast %xmm7, %xmm5, %xmm5 vpternlogq $150, %xmm8, %xmm2, %xmm5 vpslldq $4, %xmm4, %xmm7 vpslldq $8, %xmm4, %xmm8 vpslldq $12, %xmm4, %xmm9 vpternlogq $150, %xmm8, %xmm7, %xmm9 vpshufd $255, %xmm5, %xmm7 vaesenclast %xmm6, %xmm7, %xmm7 vpternlogq $150, %xmm9, %xmm4, %xmm7 vpslldq $4, %xmm5, %xmm8 vpslldq $8, %xmm5, %xmm9 vpslldq $12, %xmm5, %xmm10 vpternlogq $150, %xmm9, %xmm8, %xmm10 vpshufb %xmm3, %xmm7, %xmm8 vpbroadcastq .LCPI0_3(%rip), %xmm9 vaesenclast %xmm9, %xmm8, %xmm8 vpternlogq $150, %xmm10, %xmm5, %xmm8 vpslldq $4, %xmm7, %xmm9 vpslldq $8, %xmm7, %xmm10 vpslldq $12, %xmm7, %xmm11 vpternlogq $150, %xmm10, %xmm9, %xmm11 vpshufd $255, %xmm8, %xmm9 vaesenclast %xmm6, %xmm9, %xmm9 vpternlogq $150, %xmm11, %xmm7, %xmm9 vpslldq $4, %xmm8, %xmm10 vpslldq $8, %xmm8, %xmm11 vpslldq $12, %xmm8, %xmm12 vpternlogq $150, %xmm11, %xmm10, %xmm12 vpshufb %xmm3, %xmm9, %xmm10 vpbroadcastq .LCPI0_4(%rip), %xmm11 vaesenclast %xmm11, %xmm10, %xmm10 vpternlogq $150, %xmm12, %xmm8, %xmm10 vpslldq $4, %xmm9, %xmm11 vpslldq $8, %xmm9, %xmm12 vpslldq $12, %xmm9, %xmm13 vpternlogq $150, %xmm12, %xmm11, %xmm13 vpshufd $255, %xmm10, %xmm11 vaesenclast %xmm6, %xmm11, %xmm11 vpternlogq $150, %xmm13, %xmm9, %xmm11 vpslldq $4, %xmm10, %xmm12 vpslldq $8, %xmm10, %xmm13 vpslldq $12, %xmm10, %xmm14 vpternlogq $150, %xmm13, %xmm12, %xmm14 vpshufb %xmm3, %xmm11, %xmm12 vpbroadcastq .LCPI0_5(%rip), %xmm13 vaesenclast %xmm13, %xmm12, %xmm12 vpternlogq $150, %xmm14, %xmm10, %xmm12 vpslldq $4, %xmm11, %xmm13 vpslldq $8, %xmm11, %xmm14 vpslldq $12, %xmm11, %xmm15 vpternlogq $150, %xmm14, %xmm13, %xmm15 vpshufd $255, %xmm12, %xmm13 vaesenclast %xmm6, %xmm13, %xmm13 vpternlogq $150, %xmm15, %xmm11, %xmm13 vpslldq $4, %xmm12, %xmm14 vpslldq $8, %xmm12, %xmm15 vpslldq $12, %xmm12, %xmm16 vpternlogq $150, %xmm15, %xmm14, %xmm16 vpshufb %xmm3, %xmm13, %xmm14 vpbroadcastq .LCPI0_6(%rip), %xmm15 vaesenclast %xmm15, %xmm14, %xmm14 vpternlogq $150, %xmm16, %xmm12, %xmm14 vpslldq $4, %xmm13, %xmm15 vpslldq $8, %xmm13, %xmm16 vpslldq $12, %xmm13, %xmm17 vpternlogq $150, %xmm16, %xmm15, %xmm17 vpshufd $255, %xmm14, %xmm15 vaesenclast %xmm6, %xmm15, %xmm6 vpternlogq $150, %xmm17, %xmm13, %xmm6 vpslldq $4, %xmm14, %xmm15 vpslldq $8, %xmm14, %xmm16 vpslldq $12, %xmm14, %xmm17 vpternlogq $150, %xmm16, %xmm15, %xmm17 vpshufb %xmm3, %xmm6, %xmm3 vpbroadcastq .LCPI0_7(%rip), %xmm15 vaesenclast %xmm15, %xmm3, %xmm3 vpternlogq $150, %xmm17, %xmm14, %xmm3 vmovdqa %xmm0, (%rdi) vmovdqa %xmm1, 16(%rdi) vmovdqa %xmm2, 32(%rdi) vmovdqa %xmm4, 48(%rdi) vmovdqa %xmm5, 64(%rdi) vmovdqa %xmm7, 80(%rdi) vmovdqa %xmm8, 96(%rdi) vmovdqa %xmm9, 112(%rdi) vmovdqa %xmm10, 128(%rdi) vmovdqa %xmm11, 144(%rdi) vmovdqa %xmm12, 160(%rdi) vmovdqa %xmm13, 176(%rdi) vmovdqa %xmm14, 192(%rdi) vmovdqa %xmm6, 208(%rdi) vmovdqa %xmm3, 224(%rdi) .LBB0_2: xorl %eax, %eax cmpq $32, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes256gcmdndkv2kc_skylakex_init, .Lfunc_end0-haberdashery_aes256gcmdndkv2kc_skylakex_init .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI1_0: .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 0 .LCPI1_1: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 224 .LCPI1_2: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 225 .LCPI1_3: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 226 .LCPI1_4: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 227 .LCPI1_5: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 228 .LCPI1_6: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI1_15: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_17: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_18: .long 1 .long 0 .long 0 .long 0 .LCPI1_19: .long 2 .long 0 .long 0 .long 0 .LCPI1_20: .long 3 .long 0 .long 0 .long 0 .LCPI1_21: .long 4 .long 0 .long 0 .long 0 .LCPI1_22: .long 5 .long 0 .long 0 .long 0 .LCPI1_23: .long 6 .long 0 .long 0 .long 0 .LCPI1_24: .long 7 .long 0 .long 0 .long 0 .LCPI1_25: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_26: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI1_7: .quad 4294967297 .LCPI1_14: .quad 274877907008 .LCPI1_16: .quad -4467570830351532032 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI1_8: .long 0x00000002 .LCPI1_9: .long 0x0c0f0e0d .LCPI1_10: .long 0x00000004 .LCPI1_11: .long 0x00000008 .LCPI1_12: .long 0x00000010 .LCPI1_13: .long 0x00000020 .section .rodata,"a",@progbits .LCPI1_27: .byte 1 .byte 0 .section .text.haberdashery_aes256gcmdndkv2kc_skylakex_encrypt,"ax",@progbits .globl haberdashery_aes256gcmdndkv2kc_skylakex_encrypt .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2kc_skylakex_encrypt,@function haberdashery_aes256gcmdndkv2kc_skylakex_encrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %rbx .cfi_def_cfa_offset 24 subq $200, %rsp .cfi_def_cfa_offset 224 .cfi_offset %rbx, -24 .cfi_offset %rbp, -16 movq 224(%rsp), %r10 xorl %eax, %eax cmpq 240(%rsp), %r10 jne .LBB1_45 movq %r10, %r11 shrq $5, %r11 cmpq $2147483646, %r11 ja .LBB1_45 movabsq $2305843009213693950, %r11 cmpq %r11, %r8 ja .LBB1_45 cmpq $24, %rdx jne .LBB1_45 cmpq $48, 256(%rsp) jne .LBB1_45 vmovdqu64 (%rsi), %xmm18 vmovdqa (%rdi), %xmm12 vmovdqa 16(%rdi), %xmm11 vmovdqa 32(%rdi), %xmm9 vmovdqa 48(%rdi), %xmm8 vpternlogq $120, .LCPI1_0(%rip), %xmm18, %xmm12 vpxor .LCPI1_1(%rip), %xmm12, %xmm0 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm1 vmovdqa 64(%rdi), %xmm0 vaesenc %xmm0, %xmm1, %xmm2 vmovdqa 80(%rdi), %xmm1 vaesenc %xmm1, %xmm2, %xmm3 vmovdqa 96(%rdi), %xmm2 vaesenc %xmm2, %xmm3, %xmm4 vmovdqa 112(%rdi), %xmm3 vaesenc %xmm3, %xmm4, %xmm5 vmovdqa 128(%rdi), %xmm4 vaesenc %xmm4, %xmm5, %xmm6 vmovdqa 144(%rdi), %xmm5 vaesenc %xmm5, %xmm6, %xmm7 vmovdqa 160(%rdi), %xmm6 vaesenc %xmm6, %xmm7, %xmm13 vmovdqa 176(%rdi), %xmm7 vaesenc %xmm7, %xmm13, %xmm13 vpxor .LCPI1_2(%rip), %xmm12, %xmm14 vaesenc %xmm11, %xmm14, %xmm14 vpxor .LCPI1_3(%rip), %xmm12, %xmm15 vaesenc %xmm11, %xmm15, %xmm15 vpxor .LCPI1_4(%rip), %xmm12, %xmm10 vaesenc %xmm11, %xmm10, %xmm10 vpxor .LCPI1_5(%rip), %xmm12, %xmm12 vaesenc %xmm11, %xmm12, %xmm12 vmovdqa 192(%rdi), %xmm11 vaesenc %xmm11, %xmm13, %xmm13 vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm10, %xmm10 vaesenc %xmm9, %xmm12, %xmm12 vmovdqa 208(%rdi), %xmm9 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm10, %xmm10 vaesenc %xmm8, %xmm12, %xmm8 vmovdqa64 %xmm8, %xmm16 vmovdqa 224(%rdi), %xmm12 vaesenc %xmm9, %xmm13, %xmm8 vaesenclast %xmm12, %xmm8, %xmm8 vaesenc %xmm0, %xmm14, %xmm13 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm2, %xmm13, %xmm13 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm11, %xmm13, %xmm13 vaesenc %xmm9, %xmm13, %xmm13 vaesenclast %xmm12, %xmm13, %xmm14 vaesenc %xmm0, %xmm15, %xmm13 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm2, %xmm13, %xmm13 vaesenc %xmm3, %xmm13, %xmm13 vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm11, %xmm13, %xmm13 vaesenc %xmm9, %xmm13, %xmm13 vaesenclast %xmm12, %xmm13, %xmm13 vaesenc %xmm0, %xmm10, %xmm10 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm2, %xmm10, %xmm10 vaesenc %xmm3, %xmm10, %xmm10 vaesenc %xmm4, %xmm10, %xmm10 vaesenc %xmm5, %xmm10, %xmm10 vaesenc %xmm6, %xmm10, %xmm10 vaesenc %xmm7, %xmm10, %xmm10 vaesenc %xmm11, %xmm10, %xmm10 vaesenc %xmm9, %xmm10, %xmm10 vaesenclast %xmm12, %xmm10, %xmm10 vmovdqa64 %xmm16, %xmm15 vaesenc %xmm0, %xmm15, %xmm0 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenclast %xmm12, %xmm0, %xmm0 vpxor %xmm8, %xmm14, %xmm4 vpxor %xmm8, %xmm13, %xmm6 vpxorq %xmm8, %xmm10, %xmm16 vpxorq %xmm8, %xmm0, %xmm17 vpslldq $4, %xmm4, %xmm0 vpslldq $8, %xmm4, %xmm1 vpslldq $12, %xmm4, %xmm2 vpternlogq $150, %xmm1, %xmm0, %xmm2 vpbroadcastd .LCPI1_9(%rip), %xmm1 vpshufb %xmm1, %xmm6, %xmm0 vpbroadcastq .LCPI1_7(%rip), %xmm3 vaesenclast %xmm3, %xmm0, %xmm10 vpternlogq $150, %xmm2, %xmm4, %xmm10 vmovdqa64 %xmm4, %xmm29 vaesenc %xmm6, %xmm4, %xmm0 vpslldq $4, %xmm6, %xmm2 vpslldq $8, %xmm6, %xmm3 vpslldq $12, %xmm6, %xmm4 vpternlogq $150, %xmm3, %xmm2, %xmm4 vpshufd $255, %xmm10, %xmm2 vpxor %xmm5, %xmm5, %xmm5 vaesenclast %xmm5, %xmm2, %xmm8 vmovdqa64 %xmm6, %xmm27 vpternlogq $150, %xmm4, %xmm6, %xmm8 vbroadcastss .LCPI1_8(%rip), %xmm3 vbroadcastss .LCPI1_9(%rip), %xmm2 #APP vaesenc %xmm10, %xmm0, %xmm0 vpslldq $4, %xmm10, %xmm4 vpslldq $8, %xmm10, %xmm6 vpslldq $12, %xmm10, %xmm7 vpternlogq $150, %xmm4, %xmm6, %xmm7 vpshufb %xmm2, %xmm8, %xmm11 vaesenclast %xmm3, %xmm11, %xmm11 vpternlogq $150, %xmm10, %xmm7, %xmm11 #NO_APP vmovdqa64 %xmm8, %xmm19 #APP vaesenc %xmm8, %xmm0, %xmm0 vpslldq $4, %xmm8, %xmm3 vpslldq $8, %xmm8, %xmm4 vpslldq $12, %xmm8, %xmm6 vpternlogq $150, %xmm3, %xmm4, %xmm6 vpshufd $255, %xmm11, %xmm9 vaesenclast %xmm5, %xmm9, %xmm9 vpternlogq $150, %xmm8, %xmm6, %xmm9 #NO_APP vbroadcastss .LCPI1_10(%rip), %xmm3 vmovdqa64 %xmm11, %xmm31 #APP vaesenc %xmm11, %xmm0, %xmm0 vpslldq $4, %xmm11, %xmm4 vpslldq $8, %xmm11, %xmm6 vpslldq $12, %xmm11, %xmm7 vpternlogq $150, %xmm4, %xmm6, %xmm7 vpshufb %xmm2, %xmm9, %xmm8 vaesenclast %xmm3, %xmm8, %xmm8 vpternlogq $150, %xmm11, %xmm7, %xmm8 #NO_APP vmovdqa64 %xmm9, %xmm30 #APP vaesenc %xmm9, %xmm0, %xmm0 vpslldq $4, %xmm9, %xmm3 vpslldq $8, %xmm9, %xmm4 vpslldq $12, %xmm9, %xmm6 vpternlogq $150, %xmm3, %xmm4, %xmm6 vpshufd $255, %xmm8, %xmm15 vaesenclast %xmm5, %xmm15, %xmm15 vpternlogq $150, %xmm9, %xmm6, %xmm15 #NO_APP vbroadcastss .LCPI1_11(%rip), %xmm3 vmovaps %xmm8, -80(%rsp) #APP vaesenc %xmm8, %xmm0, %xmm0 vpslldq $4, %xmm8, %xmm4 vpslldq $8, %xmm8, %xmm6 vpslldq $12, %xmm8, %xmm7 vpternlogq $150, %xmm4, %xmm6, %xmm7 vpshufb %xmm2, %xmm15, %xmm14 vaesenclast %xmm3, %xmm14, %xmm14 vpternlogq $150, %xmm8, %xmm7, %xmm14 #NO_APP vmovaps %xmm15, -32(%rsp) #APP vaesenc %xmm15, %xmm0, %xmm0 vpslldq $4, %xmm15, %xmm3 vpslldq $8, %xmm15, %xmm4 vpslldq $12, %xmm15, %xmm6 vpternlogq $150, %xmm3, %xmm4, %xmm6 vpshufd $255, %xmm14, %xmm8 vaesenclast %xmm5, %xmm8, %xmm8 vpternlogq $150, %xmm15, %xmm6, %xmm8 #NO_APP vbroadcastss .LCPI1_12(%rip), %xmm3 vmovaps %xmm14, -96(%rsp) #APP vaesenc %xmm14, %xmm0, %xmm0 vpslldq $4, %xmm14, %xmm4 vpslldq $8, %xmm14, %xmm6 vpslldq $12, %xmm14, %xmm7 vpternlogq $150, %xmm4, %xmm6, %xmm7 vpshufb %xmm2, %xmm8, %xmm13 vaesenclast %xmm3, %xmm13, %xmm13 vpternlogq $150, %xmm14, %xmm7, %xmm13 #NO_APP vmovdqa %xmm8, %xmm14 #APP vaesenc %xmm8, %xmm0, %xmm0 vpslldq $4, %xmm8, %xmm3 vpslldq $8, %xmm8, %xmm4 vpslldq $12, %xmm8, %xmm6 vpternlogq $150, %xmm3, %xmm4, %xmm6 vpshufd $255, %xmm13, %xmm11 vaesenclast %xmm5, %xmm11, %xmm11 vpternlogq $150, %xmm8, %xmm6, %xmm11 #NO_APP vbroadcastss .LCPI1_13(%rip), %xmm3 #APP vaesenc %xmm13, %xmm0, %xmm0 vpslldq $4, %xmm13, %xmm4 vpslldq $8, %xmm13, %xmm6 vpslldq $12, %xmm13, %xmm7 vpternlogq $150, %xmm4, %xmm6, %xmm7 vpshufb %xmm2, %xmm11, %xmm9 vaesenclast %xmm3, %xmm9, %xmm9 vpternlogq $150, %xmm13, %xmm7, %xmm9 #NO_APP vpslldq $4, %xmm11, %xmm2 vpunpcklqdq %xmm11, %xmm5, %xmm3 vinsertps $55, %xmm11, %xmm0, %xmm4 vpternlogq $150, %xmm3, %xmm2, %xmm4 vpshufd $255, %xmm9, %xmm2 vaesenclast %xmm5, %xmm2, %xmm6 vpternlogq $150, %xmm4, %xmm11, %xmm6 vpshufb %xmm1, %xmm6, %xmm1 vpbroadcastq .LCPI1_14(%rip), %xmm2 vaesenclast %xmm2, %xmm1, %xmm4 vpslldq $4, %xmm9, %xmm1 vpunpcklqdq %xmm9, %xmm5, %xmm2 vinsertps $55, %xmm9, %xmm0, %xmm3 vpternlogq $150, %xmm2, %xmm1, %xmm3 vpternlogq $150, %xmm3, %xmm9, %xmm4 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenclast %xmm4, %xmm0, %xmm0 vpshufb .LCPI1_15(%rip), %xmm0, %xmm0 vpaddq %xmm0, %xmm0, %xmm1 vpsrlq $63, %xmm0, %xmm0 vpshufd $78, %xmm0, %xmm2 vpblendd $12, %xmm0, %xmm5, %xmm0 vpsllq $63, %xmm0, %xmm3 vpternlogq $30, %xmm2, %xmm1, %xmm3 vpsllq $62, %xmm0, %xmm1 vpsllq $57, %xmm0, %xmm15 vpternlogq $150, %xmm1, %xmm3, %xmm15 vpclmulqdq $0, %xmm15, %xmm15, %xmm0 vpshufd $78, %xmm0, %xmm1 vpbroadcastq .LCPI1_16(%rip), %xmm12 vpclmulqdq $16, %xmm12, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $16, %xmm12, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm8 vpclmulqdq $17, %xmm15, %xmm15, %xmm0 vpternlogq $150, %xmm1, %xmm0, %xmm8 vpclmulqdq $16, %xmm15, %xmm8, %xmm0 vpclmulqdq $1, %xmm15, %xmm8, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm0, %xmm1 vpclmulqdq $0, %xmm15, %xmm8, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpshufd $78, %xmm1, %xmm2 vpclmulqdq $16, %xmm12, %xmm1, %xmm1 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm12, %xmm1, %xmm2 vpclmulqdq $17, %xmm15, %xmm8, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpsrldq $8, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm3 vpternlogq $150, %xmm0, %xmm2, %xmm3 vpclmulqdq $0, %xmm3, %xmm3, %xmm0 vpshufd $78, %xmm0, %xmm1 vpclmulqdq $16, %xmm12, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $16, %xmm12, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm2 vmovdqa %xmm3, (%rsp) vpclmulqdq $17, %xmm3, %xmm3, %xmm0 vpternlogq $150, %xmm1, %xmm0, %xmm2 vmovdqa %xmm2, 32(%rsp) vpclmulqdq $0, %xmm8, %xmm8, %xmm0 vpshufd $78, %xmm0, %xmm1 vpclmulqdq $16, %xmm12, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $16, %xmm12, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm7 vmovdqa64 %xmm8, %xmm28 vpclmulqdq $17, %xmm8, %xmm8, %xmm0 vpternlogq $150, %xmm1, %xmm0, %xmm7 vpclmulqdq $16, %xmm15, %xmm7, %xmm0 vpclmulqdq $1, %xmm15, %xmm7, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm0, %xmm1 vpclmulqdq $0, %xmm15, %xmm7, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpshufd $78, %xmm1, %xmm2 vpclmulqdq $16, %xmm12, %xmm1, %xmm1 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm12, %xmm1, %xmm2 vpclmulqdq $17, %xmm15, %xmm7, %xmm3 vpxor %xmm2, %xmm3, %xmm2 movq 248(%rsp), %rdx movzbl 16(%rsi), %edi movzbl 17(%rsi), %r11d vpextrb $15, %xmm18, %ebx movzbl 23(%rsi), %ebp vpsrldq $8, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm0, %xmm2, %xmm1 shll $8, %edi orl %ebx, %edi shll $16, %r11d orl %edi, %r11d movzbl 18(%rsi), %edi shll $24, %edi orl %r11d, %edi vmovd %edi, %xmm0 vpinsrd $1, 19(%rsi), %xmm0, %xmm0 vmovdqu64 %xmm16, (%rdx) vmovdqu64 %xmm17, 16(%rdx) vpinsrd $2, %ebp, %xmm0, %xmm0 movl $16777216, %esi vpinsrd $3, %esi, %xmm0, %xmm26 testq %r8, %r8 vmovaps %xmm11, -112(%rsp) vmovaps %xmm9, -128(%rsp) vmovdqa %xmm6, -48(%rsp) vmovdqa %xmm4, -64(%rsp) vmovdqa %xmm7, 16(%rsp) vmovdqa %xmm1, -16(%rsp) je .LBB1_23 cmpq $96, %r8 jb .LBB1_7 vmovdqa64 %xmm13, %xmm23 vmovdqa64 %xmm14, %xmm25 vmovdqa64 %xmm30, %xmm24 vmovdqa64 %xmm31, %xmm20 vmovdqa64 %xmm19, %xmm16 vmovdqa64 %xmm10, %xmm19 vmovdqa64 %xmm27, %xmm18 vmovdqa64 %xmm29, %xmm17 vmovdqa64 .LCPI1_15(%rip), %xmm27 movq %r8, %rsi vmovdqa 32(%rsp), %xmm8 vmovdqa 16(%rsp), %xmm7 vmovdqa64 %xmm15, %xmm21 vmovdqa64 %xmm28, %xmm15 vmovdqa (%rsp), %xmm0 vmovdqa64 -16(%rsp), %xmm29 .p2align 4, 0x90 .LBB1_21: vmovdqu64 (%rcx), %xmm22 vmovdqu 16(%rcx), %xmm2 vmovdqu 32(%rcx), %xmm3 vmovdqu 48(%rcx), %xmm4 vmovdqu 64(%rcx), %xmm6 vmovdqu 80(%rcx), %xmm11 vpshufb %xmm27, %xmm4, %xmm4 vpshufb %xmm27, %xmm6, %xmm6 vpshufb %xmm27, %xmm11, %xmm11 vmovdqa64 %xmm21, %xmm1 vpclmulqdq $0, %xmm11, %xmm1, %xmm12 vpclmulqdq $1, %xmm11, %xmm1, %xmm13 vpclmulqdq $16, %xmm11, %xmm1, %xmm14 vpxor %xmm13, %xmm14, %xmm13 vpclmulqdq $0, %xmm6, %xmm15, %xmm14 vpclmulqdq $1, %xmm6, %xmm15, %xmm10 vpclmulqdq $16, %xmm6, %xmm15, %xmm9 vpternlogq $150, %xmm10, %xmm13, %xmm9 vpclmulqdq $0, %xmm4, %xmm0, %xmm10 vpternlogq $150, %xmm12, %xmm14, %xmm10 vpclmulqdq $1, %xmm4, %xmm0, %xmm12 vpclmulqdq $16, %xmm4, %xmm0, %xmm13 vpternlogq $150, %xmm12, %xmm9, %xmm13 vpbroadcastq .LCPI1_16(%rip), %xmm12 vpshufb %xmm27, %xmm2, %xmm2 vpshufb %xmm27, %xmm3, %xmm3 vpclmulqdq $17, %xmm11, %xmm1, %xmm9 vpclmulqdq $17, %xmm6, %xmm15, %xmm6 vpclmulqdq $17, %xmm4, %xmm0, %xmm4 vpternlogq $150, %xmm9, %xmm6, %xmm4 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $16, %xmm3, %xmm7, %xmm9 vpternlogq $150, %xmm6, %xmm13, %xmm9 vpclmulqdq $0, %xmm3, %xmm7, %xmm6 vmovdqa64 %xmm29, %xmm13 vpclmulqdq $0, %xmm2, %xmm13, %xmm11 vpternlogq $150, %xmm6, %xmm10, %xmm11 vpclmulqdq $1, %xmm2, %xmm13, %xmm6 vpclmulqdq $16, %xmm2, %xmm13, %xmm10 vpternlogq $150, %xmm6, %xmm9, %xmm10 vpshufb %xmm27, %xmm22, %xmm1 vpxor %xmm1, %xmm5, %xmm1 vpclmulqdq $17, %xmm3, %xmm7, %xmm3 vpclmulqdq $17, %xmm2, %xmm13, %xmm2 vpternlogq $150, %xmm3, %xmm4, %xmm2 vpclmulqdq $1, %xmm1, %xmm8, %xmm3 vpclmulqdq $16, %xmm1, %xmm8, %xmm4 vpternlogq $150, %xmm3, %xmm10, %xmm4 vpclmulqdq $0, %xmm1, %xmm8, %xmm3 vpslldq $8, %xmm4, %xmm5 vpternlogq $150, %xmm3, %xmm11, %xmm5 vpclmulqdq $17, %xmm1, %xmm8, %xmm1 vpclmulqdq $16, %xmm12, %xmm5, %xmm3 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm12, %xmm3, %xmm5 vpternlogq $150, %xmm1, %xmm2, %xmm5 vpsrldq $8, %xmm4, %xmm1 vpshufd $78, %xmm3, %xmm2 addq $96, %rcx addq $-96, %rsi vpternlogq $150, %xmm1, %xmm2, %xmm5 cmpq $95, %rsi ja .LBB1_21 vmovdqa64 %xmm17, %xmm29 vmovdqa64 %xmm18, %xmm8 vmovdqa64 %xmm19, %xmm10 vmovdqa64 %xmm16, %xmm7 vmovdqa64 %xmm20, %xmm31 vmovdqa64 %xmm24, %xmm30 vmovdqa64 %xmm25, %xmm14 vmovdqa64 %xmm23, %xmm13 vmovaps -112(%rsp), %xmm11 vmovaps -128(%rsp), %xmm9 vmovdqa -48(%rsp), %xmm6 vmovdqa -64(%rsp), %xmm4 vmovdqa64 %xmm21, %xmm15 cmpq $16, %rsi jae .LBB1_14 .LBB1_9: movq %rsi, %rdi testq %rdi, %rdi jne .LBB1_11 jmp .LBB1_24 .LBB1_23: testq %r10, %r10 vmovdqa64 %xmm27, %xmm8 vmovdqa64 %xmm19, %xmm7 jne .LBB1_26 jmp .LBB1_44 .LBB1_7: movq %r8, %rsi vmovdqa64 %xmm27, %xmm8 vmovdqa64 %xmm19, %xmm7 cmpq $16, %rsi jb .LBB1_9 .LBB1_14: leaq -16(%rsi), %rdi testb $16, %dil je .LBB1_15 cmpq $16, %rdi jae .LBB1_17 .LBB1_10: testq %rdi, %rdi je .LBB1_24 .LBB1_11: movl $-1, %esi bzhil %edi, %esi, %esi kmovd %esi, %k1 vmovdqu8 (%rcx), %xmm0 {%k1} {z} testq %r10, %r10 je .LBB1_43 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rsi incq %rcx cmpq %rcx, %rsi jb .LBB1_45 vpshufb .LCPI1_15(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpclmulqdq $0, %xmm0, %xmm15, %xmm1 vpclmulqdq $1, %xmm0, %xmm15, %xmm2 vpclmulqdq $16, %xmm0, %xmm15, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm15, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $16, %xmm12, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm12, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm5 vpternlogq $150, %xmm2, %xmm1, %xmm5 jmp .LBB1_26 .LBB1_15: vmovdqu (%rcx), %xmm0 addq $16, %rcx vpshufb .LCPI1_15(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpclmulqdq $0, %xmm0, %xmm15, %xmm1 vpclmulqdq $1, %xmm0, %xmm15, %xmm2 vpclmulqdq $16, %xmm0, %xmm15, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm15, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $16, %xmm12, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm12, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm5 vpternlogq $150, %xmm2, %xmm1, %xmm5 movq %rdi, %rsi cmpq $16, %rdi jb .LBB1_10 .LBB1_17: vmovdqa .LCPI1_15(%rip), %xmm0 .p2align 4, 0x90 .LBB1_18: vmovdqu (%rcx), %xmm1 vmovdqu 16(%rcx), %xmm2 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm1 vpclmulqdq $0, %xmm1, %xmm15, %xmm3 vpclmulqdq $1, %xmm1, %xmm15, %xmm4 vpclmulqdq $16, %xmm1, %xmm15, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm1, %xmm15, %xmm1 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpsrldq $8, %xmm4, %xmm4 vpclmulqdq $16, %xmm12, %xmm3, %xmm5 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $16, %xmm12, %xmm3, %xmm5 vpshufd $78, %xmm3, %xmm3 vpternlogq $150, %xmm1, %xmm4, %xmm5 addq $32, %rcx addq $-32, %rsi vpshufb %xmm0, %xmm2, %xmm1 vpternlogq $150, %xmm3, %xmm5, %xmm1 vpclmulqdq $0, %xmm1, %xmm15, %xmm2 vpclmulqdq $1, %xmm1, %xmm15, %xmm3 vpclmulqdq $16, %xmm1, %xmm15, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm15, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpclmulqdq $16, %xmm12, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm12, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm1, %xmm4, %xmm5 vpternlogq $150, %xmm3, %xmm2, %xmm5 cmpq $15, %rsi ja .LBB1_18 movq %rsi, %rdi vmovdqa -64(%rsp), %xmm4 testq %rdi, %rdi jne .LBB1_11 .LBB1_24: testq %r10, %r10 je .LBB1_44 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rsi incq %rcx cmpq %rcx, %rsi jb .LBB1_45 .LBB1_26: movq 232(%rsp), %rsi vpshufb .LCPI1_17(%rip), %xmm26, %xmm1 vpaddd .LCPI1_18(%rip), %xmm1, %xmm17 cmpq $96, %r10 vmovdqa64 %xmm26, 80(%rsp) jb .LBB1_27 vmovdqa64 %xmm28, 48(%rsp) vmovdqa64 .LCPI1_15(%rip), %xmm18 vpshufb %xmm18, %xmm17, %xmm0 vpaddd .LCPI1_19(%rip), %xmm1, %xmm2 vpshufb %xmm18, %xmm2, %xmm2 vpaddd .LCPI1_20(%rip), %xmm1, %xmm3 vpshufb %xmm18, %xmm3, %xmm3 vmovdqa64 %xmm4, %xmm16 vpaddd .LCPI1_21(%rip), %xmm1, %xmm4 vpshufb %xmm18, %xmm4, %xmm4 vpaddd .LCPI1_22(%rip), %xmm1, %xmm6 vpshufb %xmm18, %xmm6, %xmm6 vpaddd .LCPI1_23(%rip), %xmm1, %xmm9 vpshufb %xmm18, %xmm9, %xmm9 vpxorq %xmm0, %xmm29, %xmm0 vpxorq %xmm2, %xmm29, %xmm2 vpxorq %xmm3, %xmm29, %xmm3 vpxorq %xmm4, %xmm29, %xmm4 vmovaps %xmm11, %xmm17 vpxorq %xmm6, %xmm29, %xmm11 vmovdqa64 %xmm29, 64(%rsp) vpxorq %xmm9, %xmm29, %xmm12 #APP vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm11, %xmm11 vaesenc %xmm8, %xmm12, %xmm12 #NO_APP #APP vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm10, %xmm2, %xmm2 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm10, %xmm4, %xmm4 vaesenc %xmm10, %xmm11, %xmm11 vaesenc %xmm10, %xmm12, %xmm12 #NO_APP #APP vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm12, %xmm12 #NO_APP vmovdqa64 %xmm31, %xmm6 vmovdqa64 %xmm31, 176(%rsp) #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 #NO_APP vmovdqa64 %xmm30, %xmm6 vmovdqa64 %xmm30, 160(%rsp) #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 #NO_APP vmovaps -80(%rsp), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 #NO_APP vmovaps -32(%rsp), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 #NO_APP vmovaps -96(%rsp), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 #NO_APP #APP vaesenc %xmm14, %xmm0, %xmm0 vaesenc %xmm14, %xmm2, %xmm2 vaesenc %xmm14, %xmm3, %xmm3 vaesenc %xmm14, %xmm4, %xmm4 vaesenc %xmm14, %xmm11, %xmm11 vaesenc %xmm14, %xmm12, %xmm12 #NO_APP #APP vaesenc %xmm13, %xmm0, %xmm0 vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm13, %xmm3, %xmm3 vaesenc %xmm13, %xmm4, %xmm4 vaesenc %xmm13, %xmm11, %xmm11 vaesenc %xmm13, %xmm12, %xmm12 #NO_APP vmovaps %xmm17, %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 #NO_APP vmovaps -128(%rsp), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 #NO_APP vmovaps -48(%rsp), %xmm6 #APP vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm12, %xmm12 #NO_APP vmovdqa64 %xmm16, %xmm6 #APP vaesenclast %xmm6, %xmm0, %xmm0 vaesenclast %xmm6, %xmm2, %xmm2 vaesenclast %xmm6, %xmm3, %xmm3 vaesenclast %xmm6, %xmm4, %xmm4 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm6, %xmm12, %xmm12 #NO_APP vpxorq (%r9), %xmm0, %xmm19 vpxorq 16(%r9), %xmm2, %xmm20 vpxorq 32(%r9), %xmm3, %xmm28 vpxorq 48(%r9), %xmm4, %xmm29 vpxorq 64(%r9), %xmm11, %xmm30 vpxor 80(%r9), %xmm12, %xmm2 leaq 96(%r9), %r9 leaq 96(%rsi), %rcx vpaddd .LCPI1_24(%rip), %xmm1, %xmm17 vmovdqu64 %xmm19, (%rsi) vmovdqu64 %xmm20, 16(%rsi) vmovdqu64 %xmm28, 32(%rsi) vmovdqu64 %xmm29, 48(%rsi) leaq -96(%r10), %rax vmovdqu64 %xmm30, 64(%rsi) vmovdqu %xmm2, 80(%rsi) cmpq $96, %rax jb .LBB1_33 vmovdqa64 64(%rsp), %xmm31 vmovdqa %xmm8, 144(%rsp) vmovdqa %xmm7, 128(%rsp) vmovdqa %xmm14, 96(%rsp) vmovdqa %xmm13, 112(%rsp) vmovdqa64 -112(%rsp), %xmm27 vmovdqa64 -64(%rsp), %xmm25 vmovdqa64 32(%rsp), %xmm21 vmovdqa64 16(%rsp), %xmm24 vmovdqa64 (%rsp), %xmm23 vmovdqa64 -16(%rsp), %xmm22 vmovaps 48(%rsp), %xmm26 .p2align 4, 0x90 .LBB1_36: vpshufb %xmm18, %xmm17, %xmm0 vpaddd .LCPI1_18(%rip), %xmm17, %xmm1 vpshufb %xmm18, %xmm1, %xmm1 vpaddd .LCPI1_19(%rip), %xmm17, %xmm3 vpshufb %xmm18, %xmm3, %xmm4 vpaddd .LCPI1_20(%rip), %xmm17, %xmm3 vpshufb %xmm18, %xmm3, %xmm9 vpaddd .LCPI1_21(%rip), %xmm17, %xmm3 vmovdqa64 %xmm10, %xmm16 vpshufb %xmm18, %xmm3, %xmm10 vpaddd .LCPI1_22(%rip), %xmm17, %xmm3 vpshufb %xmm18, %xmm3, %xmm12 vpshufb %xmm18, %xmm2, %xmm6 vpxorq %xmm0, %xmm31, %xmm3 vpxorq %xmm1, %xmm31, %xmm13 vpxorq %xmm4, %xmm31, %xmm1 vpxorq %xmm9, %xmm31, %xmm11 vpxorq %xmm10, %xmm31, %xmm14 vmovdqa64 %xmm16, %xmm10 vpxorq %xmm12, %xmm31, %xmm2 vmovaps 144(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm11, %xmm11 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm2, %xmm2 #NO_APP vxorps %xmm0, %xmm0, %xmm0 vpxor %xmm4, %xmm4, %xmm4 vpxor %xmm12, %xmm12, %xmm12 #APP vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm10, %xmm13, %xmm13 vaesenc %xmm10, %xmm1, %xmm1 vaesenc %xmm10, %xmm11, %xmm11 vaesenc %xmm10, %xmm14, %xmm14 vaesenc %xmm10, %xmm2, %xmm2 vpclmulqdq $16, %xmm15, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $0, %xmm15, %xmm6, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $17, %xmm15, %xmm6, %xmm9 vpxor %xmm9, %xmm12, %xmm12 vpclmulqdq $1, %xmm15, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 #NO_APP vpshufb %xmm18, %xmm30, %xmm6 vmovaps 128(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm2, %xmm2 #NO_APP vmovaps 176(%rsp), %xmm7 vmovaps %xmm26, %xmm8 #APP vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm2, %xmm2 vpclmulqdq $16, %xmm8, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $0, %xmm8, %xmm6, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $17, %xmm8, %xmm6, %xmm9 vpxor %xmm9, %xmm12, %xmm12 vpclmulqdq $1, %xmm8, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 #NO_APP vpshufb %xmm18, %xmm29, %xmm6 vmovaps 160(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm2, %xmm2 #NO_APP vmovdqa64 %xmm23, %xmm8 vmovaps -80(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm2, %xmm2 vpclmulqdq $16, %xmm8, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $0, %xmm8, %xmm6, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $17, %xmm8, %xmm6, %xmm9 vpxor %xmm9, %xmm12, %xmm12 vpclmulqdq $1, %xmm8, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 #NO_APP vpshufb %xmm18, %xmm28, %xmm6 vmovaps -32(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm2, %xmm2 #NO_APP vmovdqa64 %xmm24, %xmm8 vmovaps -96(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm2, %xmm2 vpclmulqdq $16, %xmm8, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $0, %xmm8, %xmm6, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $17, %xmm8, %xmm6, %xmm9 vpxor %xmm9, %xmm12, %xmm12 vpclmulqdq $1, %xmm8, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 #NO_APP vpshufb %xmm18, %xmm20, %xmm6 vmovaps 96(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm2, %xmm2 #NO_APP vmovaps 112(%rsp), %xmm7 vmovdqa64 %xmm22, %xmm8 #APP vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm2, %xmm2 vpclmulqdq $16, %xmm8, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 vpclmulqdq $0, %xmm8, %xmm6, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $17, %xmm8, %xmm6, %xmm9 vpxor %xmm9, %xmm12, %xmm12 vpclmulqdq $1, %xmm8, %xmm6, %xmm9 vpxor %xmm4, %xmm9, %xmm4 #NO_APP vpshufb %xmm18, %xmm19, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vmovdqa64 %xmm27, %xmm6 #APP vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm11, %xmm11 vaesenc %xmm6, %xmm14, %xmm14 vaesenc %xmm6, %xmm2, %xmm2 #NO_APP vmovdqa -128(%rsp), %xmm9 vmovdqa64 %xmm21, %xmm7 #APP vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm11, %xmm11 vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm2, %xmm2 vpclmulqdq $16, %xmm7, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $0, %xmm7, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $17, %xmm7, %xmm5, %xmm6 vpxor %xmm6, %xmm12, %xmm12 vpclmulqdq $1, %xmm7, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 #NO_APP vmovaps -48(%rsp), %xmm5 #APP vaesenc %xmm5, %xmm3, %xmm3 vaesenc %xmm5, %xmm13, %xmm13 vaesenc %xmm5, %xmm1, %xmm1 vaesenc %xmm5, %xmm11, %xmm11 vaesenc %xmm5, %xmm14, %xmm14 vaesenc %xmm5, %xmm2, %xmm2 #NO_APP vmovdqa64 %xmm25, %xmm5 #APP vaesenclast %xmm5, %xmm3, %xmm3 vaesenclast %xmm5, %xmm13, %xmm13 vaesenclast %xmm5, %xmm1, %xmm1 vaesenclast %xmm5, %xmm11, %xmm11 vaesenclast %xmm5, %xmm14, %xmm14 vaesenclast %xmm5, %xmm2, %xmm2 #NO_APP vpxorq (%r9), %xmm3, %xmm19 vpxorq 16(%r9), %xmm13, %xmm20 vpxorq 32(%r9), %xmm1, %xmm28 vpxorq 48(%r9), %xmm11, %xmm29 vpxor %xmm3, %xmm3, %xmm3 vpunpcklqdq %xmm4, %xmm3, %xmm1 vpunpckhqdq %xmm3, %xmm4, %xmm3 vpxorq 64(%r9), %xmm14, %xmm30 vpxor 80(%r9), %xmm2, %xmm2 vpxor %xmm1, %xmm0, %xmm0 vpshufd $78, %xmm0, %xmm1 vpbroadcastq .LCPI1_16(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm3, %xmm12, %xmm5 vpbroadcastq .LCPI1_16(%rip), %xmm11 vpshufd $78, %xmm0, %xmm1 vpclmulqdq $16, %xmm11, %xmm0, %xmm0 vpternlogq $150, %xmm0, %xmm1, %xmm5 addq $96, %r9 vmovdqu64 %xmm19, (%rcx) vmovdqu64 %xmm20, 16(%rcx) vmovdqu64 %xmm28, 32(%rcx) vmovdqu64 %xmm29, 48(%rcx) vmovdqu64 %xmm30, 64(%rcx) vmovdqu %xmm2, 80(%rcx) addq $96, %rcx addq $-96, %rax vpaddd .LCPI1_23(%rip), %xmm17, %xmm17 cmpq $95, %rax ja .LBB1_36 vmovdqa 144(%rsp), %xmm8 vmovdqa64 128(%rsp), %xmm26 vmovdqa 96(%rsp), %xmm14 vmovdqa 112(%rsp), %xmm13 jmp .LBB1_34 .LBB1_27: vmovdqa64 %xmm7, %xmm26 vmovdqa64 %xmm8, %xmm23 movq %r10, %rax jmp .LBB1_28 .LBB1_33: vmovdqa64 %xmm7, %xmm26 vpbroadcastq .LCPI1_16(%rip), %xmm11 .LBB1_34: vmovdqa64 %xmm8, %xmm23 vpshufb %xmm18, %xmm29, %xmm0 vpshufb %xmm18, %xmm30, %xmm1 vpshufb %xmm18, %xmm2, %xmm2 vpclmulqdq $0, %xmm2, %xmm15, %xmm3 vpclmulqdq $1, %xmm2, %xmm15, %xmm4 vpclmulqdq $16, %xmm2, %xmm15, %xmm6 vpxor %xmm4, %xmm6, %xmm4 vmovdqa 48(%rsp), %xmm8 vpclmulqdq $1, %xmm1, %xmm8, %xmm6 vpclmulqdq $16, %xmm1, %xmm8, %xmm9 vpternlogq $150, %xmm6, %xmm4, %xmm9 vpclmulqdq $0, %xmm1, %xmm8, %xmm4 vmovdqa (%rsp), %xmm7 vpclmulqdq $0, %xmm0, %xmm7, %xmm6 vpternlogq $150, %xmm3, %xmm4, %xmm6 vpclmulqdq $1, %xmm0, %xmm7, %xmm3 vpclmulqdq $16, %xmm0, %xmm7, %xmm4 vpternlogq $150, %xmm3, %xmm9, %xmm4 vpclmulqdq $17, %xmm1, %xmm8, %xmm1 vpshufb %xmm18, %xmm20, %xmm3 vpclmulqdq $17, %xmm0, %xmm7, %xmm0 vpshufb %xmm18, %xmm28, %xmm7 vpclmulqdq $17, %xmm2, %xmm15, %xmm2 vpternlogq $150, %xmm2, %xmm1, %xmm0 vmovdqa 16(%rsp), %xmm8 vpclmulqdq $1, %xmm7, %xmm8, %xmm1 vpclmulqdq $16, %xmm7, %xmm8, %xmm2 vpternlogq $150, %xmm1, %xmm4, %xmm2 vpclmulqdq $0, %xmm7, %xmm8, %xmm1 vmovdqa -16(%rsp), %xmm9 vpclmulqdq $0, %xmm3, %xmm9, %xmm4 vpternlogq $150, %xmm1, %xmm6, %xmm4 vpclmulqdq $1, %xmm3, %xmm9, %xmm1 vpclmulqdq $16, %xmm3, %xmm9, %xmm6 vpternlogq $150, %xmm1, %xmm2, %xmm6 vpclmulqdq $17, %xmm7, %xmm8, %xmm1 vpclmulqdq $17, %xmm3, %xmm9, %xmm2 vpshufb %xmm18, %xmm19, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpternlogq $150, %xmm1, %xmm0, %xmm2 vmovdqa 32(%rsp), %xmm7 vpclmulqdq $1, %xmm3, %xmm7, %xmm0 vpclmulqdq $16, %xmm3, %xmm7, %xmm1 vpternlogq $150, %xmm0, %xmm6, %xmm1 vpclmulqdq $0, %xmm3, %xmm7, %xmm0 vpslldq $8, %xmm1, %xmm5 vpternlogq $150, %xmm0, %xmm4, %xmm5 vpclmulqdq $17, %xmm3, %xmm7, %xmm0 vpclmulqdq $16, %xmm11, %xmm5, %xmm3 vpshufd $78, %xmm5, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm11, %xmm3, %xmm5 vpternlogq $150, %xmm0, %xmm2, %xmm5 vpsrldq $8, %xmm1, %xmm0 vpshufd $78, %xmm3, %xmm1 vpternlogq $150, %xmm0, %xmm1, %xmm5 movq %rcx, %rsi vmovdqa64 64(%rsp), %xmm29 vmovdqa64 176(%rsp), %xmm31 vmovdqa64 160(%rsp), %xmm30 vmovdqa -48(%rsp), %xmm6 vmovdqa -64(%rsp), %xmm4 .LBB1_28: vmovdqa64 %xmm10, %xmm19 vmovdqa64 %xmm13, %xmm18 vmovdqa64 %xmm14, %xmm16 cmpq $16, %rax vmovdqa -32(%rsp), %xmm3 jb .LBB1_29 vmovdqa64 .LCPI1_15(%rip), %xmm27 vpmovsxbq .LCPI1_27(%rip), %xmm20 vmovdqa64 -96(%rsp), %xmm22 vmovdqa64 %xmm16, %xmm28 vmovdqa64 %xmm18, %xmm11 vmovdqa -112(%rsp), %xmm9 vmovdqa -128(%rsp), %xmm12 vpbroadcastq .LCPI1_16(%rip), %xmm24 vmovdqa64 %xmm19, %xmm1 vmovdqa64 %xmm23, %xmm8 vmovdqa64 %xmm26, %xmm7 vmovdqa64 %xmm29, %xmm25 vmovdqa64 %xmm30, %xmm0 vmovdqa64 %xmm31, %xmm14 vmovdqa -80(%rsp), %xmm13 .p2align 4, 0x90 .LBB1_39: vpshufb %xmm27, %xmm17, %xmm2 vpxorq %xmm2, %xmm25, %xmm2 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm14, %xmm2, %xmm2 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm3, %xmm2, %xmm2 vmovdqa %xmm4, %xmm10 vmovdqa %xmm6, %xmm4 vmovdqa64 %xmm22, %xmm6 vaesenc %xmm6, %xmm2, %xmm2 vmovdqa64 %xmm28, %xmm6 vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm4, %xmm2, %xmm2 vaesenclast %xmm10, %xmm2, %xmm2 vpxor (%r9), %xmm2, %xmm2 vmovdqa64 %xmm3, %xmm21 vpshufb %xmm27, %xmm2, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $1, %xmm3, %xmm15, %xmm4 vpclmulqdq $16, %xmm3, %xmm15, %xmm5 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $0, %xmm3, %xmm15, %xmm5 vpclmulqdq $17, %xmm3, %xmm15, %xmm3 vpslldq $8, %xmm4, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vmovdqa64 %xmm24, %xmm10 vpclmulqdq $16, %xmm10, %xmm5, %xmm6 vpshufd $78, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm10, %xmm6, %xmm5 vpxor %xmm3, %xmm5, %xmm5 vpshufd $78, %xmm6, %xmm3 vmovdqa -48(%rsp), %xmm6 leaq 16(%r9), %rdi leaq 16(%rsi), %rcx addq $-16, %rax vpaddd %xmm20, %xmm17, %xmm17 vmovdqu %xmm2, (%rsi) vpsrldq $8, %xmm4, %xmm2 vmovdqa -64(%rsp), %xmm4 vpternlogq $150, %xmm2, %xmm3, %xmm5 vmovdqa64 %xmm21, %xmm3 movq %rcx, %rsi movq %rdi, %r9 cmpq $15, %rax ja .LBB1_39 testq %rax, %rax je .LBB1_31 .LBB1_40: movl $-1, %esi bzhil %eax, %esi, %eax kmovd %eax, %k1 vmovdqu8 (%rdi), %xmm0 {%k1} {z} vpshufb .LCPI1_15(%rip), %xmm17, %xmm1 vpxorq %xmm1, %xmm29, %xmm1 vmovdqa64 %xmm23, %xmm2 vaesenc %xmm2, %xmm1, %xmm1 vmovdqa64 %xmm19, %xmm10 vaesenc %xmm10, %xmm1, %xmm1 vmovdqa64 %xmm26, %xmm2 vaesenc %xmm2, %xmm1, %xmm1 vmovdqa64 %xmm31, %xmm2 vaesenc %xmm2, %xmm1, %xmm1 vmovdqa64 %xmm30, %xmm2 vaesenc %xmm2, %xmm1, %xmm1 vaesenc -80(%rsp), %xmm1, %xmm1 vaesenc %xmm3, %xmm1, %xmm1 vaesenc -96(%rsp), %xmm1, %xmm1 vmovdqa64 %xmm16, %xmm14 vaesenc %xmm14, %xmm1, %xmm1 vmovdqa64 %xmm18, %xmm13 vaesenc %xmm13, %xmm1, %xmm1 vmovdqa -112(%rsp), %xmm11 vaesenc %xmm11, %xmm1, %xmm1 vmovdqa -128(%rsp), %xmm9 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm6, %xmm1, %xmm1 vaesenclast %xmm4, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vmovdqu8 %xmm0, (%rcx) {%k1} testq %r10, %r10 je .LBB1_42 vmovdqu8 %xmm0, %xmm0 {%k1} {z} .LBB1_42: vpbroadcastq .LCPI1_16(%rip), %xmm12 vmovdqa64 %xmm23, %xmm8 vmovdqa64 %xmm26, %xmm7 vmovdqa64 80(%rsp), %xmm26 .LBB1_43: vpshufb .LCPI1_15(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpclmulqdq $0, %xmm0, %xmm15, %xmm1 vpclmulqdq $1, %xmm0, %xmm15, %xmm2 vpclmulqdq $16, %xmm0, %xmm15, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm15, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $16, %xmm12, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm12, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm5 vpternlogq $150, %xmm2, %xmm1, %xmm5 jmp .LBB1_44 .LBB1_29: movq %rsi, %rcx movq %r9, %rdi testq %rax, %rax jne .LBB1_40 .LBB1_31: vmovdqa64 %xmm16, %xmm14 vmovdqa64 %xmm18, %xmm13 vmovaps -112(%rsp), %xmm11 vmovaps -128(%rsp), %xmm9 vpbroadcastq .LCPI1_16(%rip), %xmm12 vmovdqa64 %xmm19, %xmm10 vmovdqa64 %xmm23, %xmm8 vmovdqa64 %xmm26, %xmm7 vmovdqa64 80(%rsp), %xmm26 .LBB1_44: vmovq %r8, %xmm0 vmovq %r10, %xmm1 vpunpcklqdq %xmm0, %xmm1, %xmm0 vpsllq $3, %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpclmulqdq $1, %xmm0, %xmm15, %xmm1 vpclmulqdq $16, %xmm0, %xmm15, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $0, %xmm0, %xmm15, %xmm2 vpclmulqdq $17, %xmm0, %xmm15, %xmm0 vpslldq $8, %xmm1, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpshufd $78, %xmm2, %xmm3 vpclmulqdq $16, %xmm12, %xmm2, %xmm2 vpxor %xmm3, %xmm2, %xmm2 vpclmulqdq $16, %xmm12, %xmm2, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpxorq %xmm26, %xmm29, %xmm3 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm7, %xmm3, %xmm3 vmovdqa64 %xmm31, %xmm5 vaesenc %xmm5, %xmm3, %xmm3 vmovdqa64 %xmm30, %xmm5 vaesenc %xmm5, %xmm3, %xmm3 vaesenc -80(%rsp), %xmm3, %xmm3 vaesenc -32(%rsp), %xmm3, %xmm3 vaesenc -96(%rsp), %xmm3, %xmm3 vaesenc %xmm14, %xmm3, %xmm3 vaesenc %xmm13, %xmm3, %xmm3 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm6, %xmm3, %xmm3 vpshufb .LCPI1_26(%rip), %xmm2, %xmm2 vpshufb .LCPI1_15(%rip), %xmm0, %xmm0 vpshufb .LCPI1_25(%rip), %xmm1, %xmm1 vaesenclast %xmm4, %xmm3, %xmm3 vpxor %xmm1, %xmm0, %xmm0 vpternlogq $150, %xmm0, %xmm3, %xmm2 vmovdqu %xmm2, 32(%rdx) movl $1, %eax .LBB1_45: addq $200, %rsp .cfi_def_cfa_offset 24 popq %rbx .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end1: .size haberdashery_aes256gcmdndkv2kc_skylakex_encrypt, .Lfunc_end1-haberdashery_aes256gcmdndkv2kc_skylakex_encrypt .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 0 .LCPI2_1: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 224 .LCPI2_2: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 225 .LCPI2_3: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 226 .LCPI2_4: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 227 .LCPI2_5: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 228 .LCPI2_6: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI2_15: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_17: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_18: .long 1 .long 0 .long 0 .long 0 .LCPI2_19: .long 2 .long 0 .long 0 .long 0 .LCPI2_20: .long 3 .long 0 .long 0 .long 0 .LCPI2_21: .long 4 .long 0 .long 0 .long 0 .LCPI2_22: .long 5 .long 0 .long 0 .long 0 .LCPI2_23: .long 6 .long 0 .long 0 .long 0 .LCPI2_24: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI2_25: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI2_7: .quad 4294967297 .LCPI2_14: .quad 274877907008 .LCPI2_16: .quad -4467570830351532032 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI2_8: .long 0x00000002 .LCPI2_9: .long 0x0c0f0e0d .LCPI2_10: .long 0x00000004 .LCPI2_11: .long 0x00000008 .LCPI2_12: .long 0x00000010 .LCPI2_13: .long 0x00000020 .section .rodata,"a",@progbits .LCPI2_26: .byte 1 .byte 0 .section .text.haberdashery_aes256gcmdndkv2kc_skylakex_decrypt,"ax",@progbits .globl haberdashery_aes256gcmdndkv2kc_skylakex_decrypt .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2kc_skylakex_decrypt,@function haberdashery_aes256gcmdndkv2kc_skylakex_decrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %rbx .cfi_def_cfa_offset 24 subq $136, %rsp .cfi_def_cfa_offset 160 .cfi_offset %rbx, -24 .cfi_offset %rbp, -16 movq 160(%rsp), %r10 xorl %eax, %eax cmpq 192(%rsp), %r10 jne .LBB2_45 movq %r10, %r11 shrq $5, %r11 cmpq $2147483646, %r11 ja .LBB2_45 movabsq $2305843009213693950, %r11 cmpq %r11, %r8 ja .LBB2_45 cmpq $24, %rdx jne .LBB2_45 cmpq $48, 176(%rsp) jne .LBB2_45 vmovdqu64 (%rsi), %xmm16 vmovdqa64 (%rdi), %xmm23 vmovdqa 16(%rdi), %xmm11 vmovdqa 32(%rdi), %xmm1 vmovdqa 48(%rdi), %xmm8 vpternlogq $120, .LCPI2_0(%rip), %xmm16, %xmm23 movq 168(%rsp), %rdx vpxorq .LCPI2_1(%rip), %xmm23, %xmm2 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm8, %xmm2, %xmm3 vmovdqa 64(%rdi), %xmm0 vaesenc %xmm0, %xmm3, %xmm4 vmovdqa 80(%rdi), %xmm2 vaesenc %xmm2, %xmm4, %xmm5 vmovdqa 96(%rdi), %xmm3 vaesenc %xmm3, %xmm5, %xmm6 vmovdqa 112(%rdi), %xmm12 vaesenc %xmm12, %xmm6, %xmm7 vmovdqa 128(%rdi), %xmm13 vaesenc %xmm13, %xmm7, %xmm9 vmovdqa 144(%rdi), %xmm14 vaesenc %xmm14, %xmm9, %xmm9 vmovdqa 160(%rdi), %xmm5 vaesenc %xmm5, %xmm9, %xmm9 vmovdqa 176(%rdi), %xmm6 vaesenc %xmm6, %xmm9, %xmm9 vmovdqa 192(%rdi), %xmm7 vaesenc %xmm7, %xmm9, %xmm9 vmovdqa 208(%rdi), %xmm10 vaesenc %xmm10, %xmm9, %xmm15 vmovdqa 224(%rdi), %xmm9 vaesenclast %xmm9, %xmm15, %xmm4 vpxorq .LCPI2_4(%rip), %xmm23, %xmm15 vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm0, %xmm15, %xmm15 vmovdqa64 %xmm0, %xmm17 vaesenc %xmm2, %xmm15, %xmm15 vaesenc %xmm3, %xmm15, %xmm15 vaesenc %xmm12, %xmm15, %xmm15 vaesenc %xmm13, %xmm15, %xmm15 vaesenc %xmm14, %xmm15, %xmm15 vaesenc %xmm5, %xmm15, %xmm15 vaesenc %xmm6, %xmm15, %xmm15 vaesenc %xmm7, %xmm15, %xmm15 vaesenc %xmm10, %xmm15, %xmm15 vaesenclast %xmm9, %xmm15, %xmm15 vpxor (%rdx), %xmm15, %xmm15 vpxorq .LCPI2_5(%rip), %xmm23, %xmm0 vmovdqa64 %xmm11, %xmm19 vaesenc %xmm11, %xmm0, %xmm0 vmovdqa %xmm2, %xmm11 vmovdqa64 %xmm17, %xmm2 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm13, %xmm0, %xmm0 vaesenc %xmm14, %xmm0, %xmm0 vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm10, %xmm0, %xmm0 vaesenclast %xmm9, %xmm0, %xmm0 vpternlogq $150, 16(%rdx), %xmm4, %xmm0 vpternlogq $246, %xmm4, %xmm15, %xmm0 vptest %xmm0, %xmm0 jne .LBB2_45 vmovdqa64 %xmm1, %xmm17 vmovdqa64 %xmm8, %xmm18 vmovdqa64 %xmm10, %xmm24 vpxorq .LCPI2_2(%rip), %xmm23, %xmm0 vmovdqa64 %xmm19, %xmm1 vaesenc %xmm1, %xmm0, %xmm0 vpxorq .LCPI2_3(%rip), %xmm23, %xmm10 vaesenc %xmm1, %xmm10, %xmm8 vmovdqa64 %xmm17, %xmm1 vaesenc %xmm1, %xmm0, %xmm0 vmovdqa64 %xmm18, %xmm10 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm3, %xmm0, %xmm0 vaesenc %xmm12, %xmm0, %xmm0 vaesenc %xmm13, %xmm0, %xmm0 vaesenc %xmm14, %xmm0, %xmm0 vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vmovdqa64 %xmm24, %xmm15 vaesenc %xmm15, %xmm0, %xmm0 vaesenclast %xmm9, %xmm0, %xmm0 vaesenc %xmm1, %xmm8, %xmm8 vaesenc %xmm10, %xmm8, %xmm1 vaesenc %xmm2, %xmm1, %xmm1 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm13, %xmm1, %xmm1 vaesenc %xmm14, %xmm1, %xmm1 vaesenc %xmm5, %xmm1, %xmm1 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm15, %xmm1, %xmm1 vaesenclast %xmm9, %xmm1, %xmm1 vpxor %xmm4, %xmm0, %xmm11 vpxor %xmm4, %xmm1, %xmm6 vpslldq $4, %xmm11, %xmm0 vpslldq $8, %xmm11, %xmm1 vpslldq $12, %xmm11, %xmm3 vpbroadcastd .LCPI2_9(%rip), %xmm2 vpternlogq $150, %xmm1, %xmm0, %xmm3 vpshufb %xmm2, %xmm6, %xmm0 vpbroadcastq .LCPI2_7(%rip), %xmm1 vaesenclast %xmm1, %xmm0, %xmm8 vpternlogq $150, %xmm3, %xmm11, %xmm8 vaesenc %xmm6, %xmm11, %xmm1 vpslldq $4, %xmm6, %xmm0 vpslldq $8, %xmm6, %xmm3 vpslldq $12, %xmm6, %xmm4 vpternlogq $150, %xmm3, %xmm0, %xmm4 vpshufd $255, %xmm8, %xmm3 vpxor %xmm0, %xmm0, %xmm0 vaesenclast %xmm0, %xmm3, %xmm9 vbroadcastss .LCPI2_8(%rip), %xmm5 vbroadcastss .LCPI2_9(%rip), %xmm3 vmovaps %xmm6, -80(%rsp) vpternlogq $150, %xmm4, %xmm6, %xmm9 vmovdqa64 %xmm8, %xmm17 #APP vaesenc %xmm8, %xmm1, %xmm1 vpslldq $4, %xmm8, %xmm4 vpslldq $8, %xmm8, %xmm6 vpslldq $12, %xmm8, %xmm7 vpternlogq $150, %xmm4, %xmm6, %xmm7 vpshufb %xmm3, %xmm9, %xmm10 vaesenclast %xmm5, %xmm10, %xmm10 vpternlogq $150, %xmm8, %xmm7, %xmm10 #NO_APP vmovdqa64 %xmm9, %xmm27 #APP vaesenc %xmm9, %xmm1, %xmm1 vpslldq $4, %xmm9, %xmm4 vpslldq $8, %xmm9, %xmm5 vpslldq $12, %xmm9, %xmm6 vpternlogq $150, %xmm4, %xmm5, %xmm6 vpshufd $255, %xmm10, %xmm12 vaesenclast %xmm0, %xmm12, %xmm12 vpternlogq $150, %xmm9, %xmm6, %xmm12 #NO_APP vbroadcastss .LCPI2_10(%rip), %xmm4 vmovdqa64 %xmm10, %xmm29 #APP vaesenc %xmm10, %xmm1, %xmm1 vpslldq $4, %xmm10, %xmm5 vpslldq $8, %xmm10, %xmm6 vpslldq $12, %xmm10, %xmm7 vpternlogq $150, %xmm5, %xmm6, %xmm7 vpshufb %xmm3, %xmm12, %xmm8 vaesenclast %xmm4, %xmm8, %xmm8 vpternlogq $150, %xmm10, %xmm7, %xmm8 #NO_APP vmovdqa64 %xmm12, %xmm30 #APP vaesenc %xmm12, %xmm1, %xmm1 vpslldq $4, %xmm12, %xmm4 vpslldq $8, %xmm12, %xmm5 vpslldq $12, %xmm12, %xmm6 vpternlogq $150, %xmm4, %xmm5, %xmm6 vpshufd $255, %xmm8, %xmm9 vaesenclast %xmm0, %xmm9, %xmm9 vpternlogq $150, %xmm12, %xmm6, %xmm9 #NO_APP vbroadcastss .LCPI2_11(%rip), %xmm4 vmovaps %xmm8, (%rsp) #APP vaesenc %xmm8, %xmm1, %xmm1 vpslldq $4, %xmm8, %xmm5 vpslldq $8, %xmm8, %xmm6 vpslldq $12, %xmm8, %xmm7 vpternlogq $150, %xmm5, %xmm6, %xmm7 vpshufb %xmm3, %xmm9, %xmm14 vaesenclast %xmm4, %xmm14, %xmm14 vpternlogq $150, %xmm8, %xmm7, %xmm14 #NO_APP vbroadcastss .LCPI2_12(%rip), %xmm4 vmovdqa %xmm9, -112(%rsp) #APP vaesenc %xmm9, %xmm1, %xmm1 vpslldq $4, %xmm9, %xmm5 vpslldq $8, %xmm9, %xmm6 vpslldq $12, %xmm9, %xmm7 vpternlogq $150, %xmm5, %xmm6, %xmm7 vpshufd $255, %xmm14, %xmm8 vaesenclast %xmm0, %xmm8, %xmm8 vpternlogq $150, %xmm9, %xmm7, %xmm8 #NO_APP vmovaps %xmm14, -128(%rsp) #APP vaesenc %xmm14, %xmm1, %xmm1 vpslldq $4, %xmm14, %xmm5 vpslldq $8, %xmm14, %xmm6 vpslldq $12, %xmm14, %xmm7 vpternlogq $150, %xmm5, %xmm6, %xmm7 vpshufb %xmm3, %xmm8, %xmm15 vaesenclast %xmm4, %xmm15, %xmm15 vpternlogq $150, %xmm14, %xmm7, %xmm15 #NO_APP vmovdqa %xmm8, %xmm14 #APP vaesenc %xmm8, %xmm1, %xmm1 vpslldq $4, %xmm8, %xmm4 vpslldq $8, %xmm8, %xmm5 vpslldq $12, %xmm8, %xmm6 vpternlogq $150, %xmm4, %xmm5, %xmm6 vpshufd $255, %xmm15, %xmm10 vaesenclast %xmm0, %xmm10, %xmm10 vpternlogq $150, %xmm8, %xmm6, %xmm10 #NO_APP vbroadcastss .LCPI2_13(%rip), %xmm4 #APP vaesenc %xmm15, %xmm1, %xmm1 vpslldq $4, %xmm15, %xmm5 vpslldq $8, %xmm15, %xmm6 vpslldq $12, %xmm15, %xmm7 vpternlogq $150, %xmm5, %xmm6, %xmm7 vpshufb %xmm3, %xmm10, %xmm13 vaesenclast %xmm4, %xmm13, %xmm13 vpternlogq $150, %xmm15, %xmm7, %xmm13 #NO_APP vpslldq $4, %xmm10, %xmm3 vpunpcklqdq %xmm10, %xmm0, %xmm4 vinsertps $55, %xmm10, %xmm0, %xmm5 vpternlogq $150, %xmm4, %xmm3, %xmm5 vpshufd $255, %xmm13, %xmm3 vaesenclast %xmm0, %xmm3, %xmm6 vpternlogq $150, %xmm5, %xmm10, %xmm6 vmovdqa %xmm6, -32(%rsp) vpshufb %xmm2, %xmm6, %xmm2 vpbroadcastq .LCPI2_14(%rip), %xmm3 vaesenclast %xmm3, %xmm2, %xmm5 vpslldq $4, %xmm13, %xmm2 vpunpcklqdq %xmm13, %xmm0, %xmm3 vinsertps $55, %xmm13, %xmm0, %xmm4 vpternlogq $150, %xmm3, %xmm2, %xmm4 vpternlogq $150, %xmm4, %xmm13, %xmm5 vaesenc %xmm10, %xmm1, %xmm1 vaesenc %xmm13, %xmm1, %xmm1 vaesenc %xmm6, %xmm1, %xmm1 vmovdqa %xmm5, -96(%rsp) vaesenclast %xmm5, %xmm1, %xmm1 vpshufb .LCPI2_15(%rip), %xmm1, %xmm1 vpsrlq $63, %xmm1, %xmm2 vpshufd $78, %xmm2, %xmm3 vpblendd $12, %xmm2, %xmm0, %xmm0 vpaddq %xmm1, %xmm1, %xmm1 vpsllq $63, %xmm0, %xmm2 vpternlogq $30, %xmm3, %xmm1, %xmm2 vpsllq $62, %xmm0, %xmm1 vpsllq $57, %xmm0, %xmm4 vpternlogq $150, %xmm1, %xmm2, %xmm4 vpclmulqdq $0, %xmm4, %xmm4, %xmm0 vpshufd $78, %xmm0, %xmm1 vpbroadcastq .LCPI2_16(%rip), %xmm12 vpclmulqdq $16, %xmm12, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $16, %xmm12, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm5 vpclmulqdq $17, %xmm4, %xmm4, %xmm0 vpternlogq $150, %xmm1, %xmm0, %xmm5 vpclmulqdq $16, %xmm4, %xmm5, %xmm0 vpclmulqdq $1, %xmm4, %xmm5, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm0, %xmm1 vpclmulqdq $0, %xmm4, %xmm5, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpshufd $78, %xmm1, %xmm2 vpclmulqdq $16, %xmm12, %xmm1, %xmm1 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm12, %xmm1, %xmm2 vpclmulqdq $17, %xmm4, %xmm5, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpsrldq $8, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm6 vpternlogq $150, %xmm0, %xmm2, %xmm6 vpclmulqdq $0, %xmm6, %xmm6, %xmm0 vpshufd $78, %xmm0, %xmm1 vpclmulqdq $16, %xmm12, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $16, %xmm12, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm28 vpclmulqdq $17, %xmm6, %xmm6, %xmm0 vpternlogq $150, %xmm1, %xmm0, %xmm28 vpclmulqdq $0, %xmm5, %xmm5, %xmm0 vpshufd $78, %xmm0, %xmm1 vpclmulqdq $16, %xmm12, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $16, %xmm12, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm7 vpclmulqdq $17, %xmm5, %xmm5, %xmm0 vpternlogq $150, %xmm1, %xmm0, %xmm7 vpclmulqdq $16, %xmm4, %xmm7, %xmm0 vpclmulqdq $1, %xmm4, %xmm7, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpslldq $8, %xmm0, %xmm1 vpclmulqdq $0, %xmm4, %xmm7, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpshufd $78, %xmm1, %xmm2 vpclmulqdq $16, %xmm12, %xmm1, %xmm1 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm12, %xmm1, %xmm2 vpclmulqdq $17, %xmm4, %xmm7, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpsrldq $8, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm8 vpternlogq $150, %xmm0, %xmm2, %xmm8 vpextrb $15, %xmm16, %edi movzbl 23(%rsi), %r11d movzbl 17(%rsi), %ebx movzbl 16(%rsi), %ebp shll $8, %ebp orl %edi, %ebp shll $16, %ebx orl %ebp, %ebx movzbl 18(%rsi), %edi shll $24, %edi orl %ebx, %edi vmovd %edi, %xmm0 vpinsrd $1, 19(%rsi), %xmm0, %xmm0 vpinsrd $2, %r11d, %xmm0, %xmm0 movl $16777216, %esi vpinsrd $3, %esi, %xmm0, %xmm21 testq %r8, %r8 vmovdqa %xmm7, 48(%rsp) vmovdqa %xmm5, 32(%rsp) vmovdqa %xmm6, 16(%rsp) vpxor %xmm9, %xmm9, %xmm9 je .LBB2_38 cmpq $96, %r8 jb .LBB2_8 vmovdqa64 %xmm21, -16(%rsp) vmovaps %xmm13, %xmm24 vmovaps %xmm10, %xmm23 vmovdqa64 %xmm15, %xmm22 vmovdqa64 %xmm14, %xmm21 vmovdqa64 %xmm30, %xmm20 vmovdqa64 %xmm29, %xmm19 vmovdqa64 %xmm27, %xmm18 vmovapd %xmm11, %xmm26 vmovdqa64 .LCPI2_15(%rip), %xmm27 movq %r8, %rsi vmovdqa 32(%rsp), %xmm5 vmovdqa64 %xmm4, %xmm31 vmovdqa64 %xmm28, %xmm4 vmovdqa64 %xmm8, %xmm25 vmovdqa 16(%rsp), %xmm8 vmovdqa 48(%rsp), %xmm0 .p2align 4, 0x90 .LBB2_21: vmovdqu64 (%rcx), %xmm28 vmovdqu 16(%rcx), %xmm2 vmovdqu 32(%rcx), %xmm3 vmovdqu 48(%rcx), %xmm11 vmovdqu 64(%rcx), %xmm12 vmovdqu 80(%rcx), %xmm13 vpshufb %xmm27, %xmm11, %xmm11 vpshufb %xmm27, %xmm12, %xmm12 vpshufb %xmm27, %xmm13, %xmm13 vmovdqa64 %xmm31, %xmm1 vpclmulqdq $0, %xmm13, %xmm1, %xmm14 vpclmulqdq $1, %xmm13, %xmm1, %xmm15 vpclmulqdq $16, %xmm13, %xmm1, %xmm7 vpxor %xmm7, %xmm15, %xmm7 vpclmulqdq $0, %xmm12, %xmm5, %xmm15 vpclmulqdq $1, %xmm12, %xmm5, %xmm6 vpclmulqdq $16, %xmm12, %xmm5, %xmm10 vpternlogq $150, %xmm6, %xmm7, %xmm10 vpclmulqdq $0, %xmm11, %xmm8, %xmm6 vpternlogq $150, %xmm14, %xmm15, %xmm6 vpclmulqdq $1, %xmm11, %xmm8, %xmm7 vpclmulqdq $16, %xmm11, %xmm8, %xmm14 vpternlogq $150, %xmm7, %xmm10, %xmm14 vpshufb %xmm27, %xmm2, %xmm2 vpshufb %xmm27, %xmm3, %xmm3 vpclmulqdq $17, %xmm13, %xmm1, %xmm7 vpclmulqdq $17, %xmm12, %xmm5, %xmm10 vpclmulqdq $17, %xmm11, %xmm8, %xmm11 vpternlogq $150, %xmm7, %xmm10, %xmm11 vpclmulqdq $1, %xmm3, %xmm0, %xmm7 vpclmulqdq $16, %xmm3, %xmm0, %xmm10 vpternlogq $150, %xmm7, %xmm14, %xmm10 vpclmulqdq $0, %xmm3, %xmm0, %xmm7 vmovdqa64 %xmm25, %xmm13 vpclmulqdq $0, %xmm2, %xmm13, %xmm12 vpternlogq $150, %xmm7, %xmm6, %xmm12 vpclmulqdq $1, %xmm2, %xmm13, %xmm6 vpclmulqdq $16, %xmm2, %xmm13, %xmm7 vpternlogq $150, %xmm6, %xmm10, %xmm7 vpshufb %xmm27, %xmm28, %xmm1 vpxor %xmm1, %xmm9, %xmm1 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpclmulqdq $17, %xmm2, %xmm13, %xmm2 vpternlogq $150, %xmm3, %xmm11, %xmm2 vpclmulqdq $1, %xmm1, %xmm4, %xmm3 vpclmulqdq $16, %xmm1, %xmm4, %xmm6 vpternlogq $150, %xmm3, %xmm7, %xmm6 vpclmulqdq $0, %xmm1, %xmm4, %xmm3 vpslldq $8, %xmm6, %xmm7 vpternlogq $150, %xmm3, %xmm12, %xmm7 vpbroadcastq .LCPI2_16(%rip), %xmm12 vpclmulqdq $17, %xmm1, %xmm4, %xmm1 vpclmulqdq $16, %xmm12, %xmm7, %xmm3 vpshufd $78, %xmm7, %xmm7 vpxor %xmm7, %xmm3, %xmm3 vpclmulqdq $16, %xmm12, %xmm3, %xmm9 vpternlogq $150, %xmm1, %xmm2, %xmm9 vpsrldq $8, %xmm6, %xmm1 vpshufd $78, %xmm3, %xmm2 addq $96, %rcx addq $-96, %rsi vpternlogq $150, %xmm1, %xmm2, %xmm9 cmpq $95, %rsi ja .LBB2_21 vmovapd %xmm26, %xmm11 vmovdqa64 %xmm17, %xmm5 vmovdqa64 %xmm18, %xmm27 vmovdqa64 %xmm19, %xmm29 vmovdqa64 %xmm20, %xmm30 vmovdqa64 %xmm21, %xmm14 vmovdqa64 %xmm22, %xmm15 vmovaps %xmm23, %xmm10 vmovaps %xmm24, %xmm13 vmovdqa64 %xmm4, %xmm28 vmovdqa64 %xmm31, %xmm4 vmovdqa64 %xmm25, %xmm8 vmovdqa64 -16(%rsp), %xmm21 cmpq $16, %rsi vmovdqa -112(%rsp), %xmm6 vmovdqa -128(%rsp), %xmm7 jae .LBB2_11 .LBB2_10: movq %rsi, %rdi testq %rdi, %rdi jne .LBB2_23 jmp .LBB2_18 .LBB2_38: xorl %r8d, %r8d testq %r10, %r10 vmovdqa -112(%rsp), %xmm6 vmovdqa -128(%rsp), %xmm7 vmovdqa64 %xmm17, %xmm5 jne .LBB2_26 jmp .LBB2_39 .LBB2_8: movq %r8, %rsi vmovdqa64 %xmm17, %xmm5 cmpq $16, %rsi vmovdqa -112(%rsp), %xmm6 vmovdqa -128(%rsp), %xmm7 jb .LBB2_10 .LBB2_11: leaq -16(%rsi), %rdi testb $16, %dil je .LBB2_12 cmpq $16, %rdi jae .LBB2_14 .LBB2_17: testq %rdi, %rdi je .LBB2_18 .LBB2_23: movl $-1, %esi bzhil %edi, %esi, %esi kmovd %esi, %k1 vmovdqu8 (%rcx), %xmm0 {%k1} {z} shlq $3, %r8 testq %r10, %r10 je .LBB2_46 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rsi incq %rcx cmpq %rcx, %rsi jb .LBB2_45 vpshufb .LCPI2_15(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $0, %xmm0, %xmm4, %xmm1 vpclmulqdq $1, %xmm0, %xmm4, %xmm2 vpclmulqdq $16, %xmm0, %xmm4, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm4, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $16, %xmm12, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm12, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm9 vpternlogq $150, %xmm2, %xmm1, %xmm9 jmp .LBB2_26 .LBB2_12: vmovdqu (%rcx), %xmm0 addq $16, %rcx vpshufb .LCPI2_15(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $0, %xmm0, %xmm4, %xmm1 vpclmulqdq $1, %xmm0, %xmm4, %xmm2 vpclmulqdq $16, %xmm0, %xmm4, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm4, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $16, %xmm12, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm12, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm9 vpternlogq $150, %xmm2, %xmm1, %xmm9 movq %rdi, %rsi cmpq $16, %rdi jb .LBB2_17 .LBB2_14: vmovdqa .LCPI2_15(%rip), %xmm0 .p2align 4, 0x90 .LBB2_15: vmovdqu (%rcx), %xmm1 vmovdqu 16(%rcx), %xmm2 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm1, %xmm9, %xmm1 vpclmulqdq $0, %xmm1, %xmm4, %xmm3 vpclmulqdq $1, %xmm1, %xmm4, %xmm6 vpclmulqdq $16, %xmm1, %xmm4, %xmm7 vpxor %xmm6, %xmm7, %xmm6 vpclmulqdq $17, %xmm1, %xmm4, %xmm1 vpslldq $8, %xmm6, %xmm7 vpxor %xmm7, %xmm3, %xmm3 vpsrldq $8, %xmm6, %xmm6 vpclmulqdq $16, %xmm12, %xmm3, %xmm7 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm7, %xmm3 vpclmulqdq $16, %xmm12, %xmm3, %xmm7 vpshufd $78, %xmm3, %xmm3 vpternlogq $150, %xmm1, %xmm6, %xmm7 addq $32, %rcx addq $-32, %rsi vpshufb %xmm0, %xmm2, %xmm1 vpternlogq $150, %xmm3, %xmm7, %xmm1 vpclmulqdq $0, %xmm1, %xmm4, %xmm2 vpclmulqdq $1, %xmm1, %xmm4, %xmm3 vpclmulqdq $16, %xmm1, %xmm4, %xmm6 vpxor %xmm3, %xmm6, %xmm3 vpclmulqdq $17, %xmm1, %xmm4, %xmm1 vpslldq $8, %xmm3, %xmm6 vpxor %xmm6, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpclmulqdq $16, %xmm12, %xmm2, %xmm6 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm6, %xmm2 vpclmulqdq $16, %xmm12, %xmm2, %xmm6 vpshufd $78, %xmm2, %xmm2 vpxor %xmm1, %xmm6, %xmm9 vpternlogq $150, %xmm3, %xmm2, %xmm9 cmpq $15, %rsi ja .LBB2_15 movq %rsi, %rdi vmovdqa -112(%rsp), %xmm6 vmovdqa -128(%rsp), %xmm7 testq %rdi, %rdi jne .LBB2_23 .LBB2_18: shlq $3, %r8 testq %r10, %r10 je .LBB2_39 movabsq $-68719476704, %rcx leaq (%r10,%rcx), %rsi incq %rcx cmpq %rcx, %rsi jb .LBB2_45 .LBB2_26: vmovaps %xmm13, -64(%rsp) vmovdqa %xmm15, -48(%rsp) movq 184(%rsp), %rax vpshufb .LCPI2_17(%rip), %xmm21, %xmm0 vpaddd .LCPI2_18(%rip), %xmm0, %xmm17 cmpq $96, %r10 jb .LBB2_27 vmovdqa64 %xmm21, -16(%rsp) vmovdqa64 .LCPI2_15(%rip), %xmm18 movq %r10, %rcx vmovdqa %xmm5, 112(%rsp) vmovdqa64 %xmm27, 96(%rsp) vmovdqa64 %xmm29, 80(%rsp) vmovdqa64 %xmm30, 64(%rsp) vmovdqa64 %xmm14, %xmm24 vmovdqa64 %xmm10, %xmm25 vmovaps -96(%rsp), %xmm20 vmovdqa -80(%rsp), %xmm12 vmovaps 32(%rsp), %xmm21 vmovdqa64 16(%rsp), %xmm22 vmovdqa64 %xmm8, %xmm23 vmovaps 48(%rsp), %xmm19 vmovdqa64 %xmm28, %xmm8 .p2align 4, 0x90 .LBB2_31: vmovdqu64 16(%r9), %xmm26 vmovdqu64 32(%r9), %xmm27 vmovdqu64 48(%r9), %xmm28 vmovdqu64 64(%r9), %xmm29 vmovdqu64 80(%r9), %xmm30 vpshufb %xmm18, %xmm17, %xmm0 vpaddd .LCPI2_18(%rip), %xmm17, %xmm1 vpshufb %xmm18, %xmm1, %xmm1 vpaddd .LCPI2_19(%rip), %xmm17, %xmm2 vpshufb %xmm18, %xmm2, %xmm3 vpaddd .LCPI2_20(%rip), %xmm17, %xmm2 vpshufb %xmm18, %xmm2, %xmm6 vpaddd .LCPI2_21(%rip), %xmm17, %xmm2 vpshufb %xmm18, %xmm2, %xmm7 vpaddd .LCPI2_22(%rip), %xmm17, %xmm2 vpshufb %xmm18, %xmm2, %xmm10 vpshufb %xmm18, %xmm30, %xmm5 vpxor %xmm0, %xmm11, %xmm2 vpxor %xmm1, %xmm11, %xmm14 vpxor %xmm3, %xmm11, %xmm3 vpxor %xmm6, %xmm11, %xmm13 vpxor %xmm7, %xmm11, %xmm1 vmovapd %xmm11, %xmm31 vpxor %xmm10, %xmm11, %xmm11 #APP vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm14, %xmm14 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm13, %xmm13 vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm12, %xmm11, %xmm11 #NO_APP vpxor %xmm15, %xmm15, %xmm15 vpxor %xmm0, %xmm0, %xmm0 vmovdqa64 %xmm12, %xmm16 vpxor %xmm12, %xmm12, %xmm12 vmovaps 112(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vpclmulqdq $16, %xmm4, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $0, %xmm4, %xmm5, %xmm6 vpxor %xmm6, %xmm15, %xmm15 vpclmulqdq $17, %xmm4, %xmm5, %xmm6 vpxor %xmm6, %xmm12, %xmm12 vpclmulqdq $1, %xmm4, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 #NO_APP vpshufb %xmm18, %xmm29, %xmm5 vmovaps 96(%rsp), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm14, %xmm14 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm11, %xmm11 #NO_APP vmovaps 80(%rsp), %xmm7 vmovaps %xmm21, %xmm10 #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vpclmulqdq $16, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $0, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm15, %xmm15 vpclmulqdq $17, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm12, %xmm12 vpclmulqdq $1, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 #NO_APP vpshufb %xmm18, %xmm28, %xmm5 vmovaps 64(%rsp), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm14, %xmm14 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm11, %xmm11 #NO_APP vmovaps (%rsp), %xmm7 vmovdqa64 %xmm22, %xmm10 #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vpclmulqdq $16, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $0, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm15, %xmm15 vpclmulqdq $17, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm12, %xmm12 vpclmulqdq $1, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 #NO_APP vpshufb %xmm18, %xmm27, %xmm5 vmovaps -112(%rsp), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm14, %xmm14 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm11, %xmm11 #NO_APP vmovaps -128(%rsp), %xmm7 vmovaps %xmm19, %xmm10 #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vpclmulqdq $16, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $0, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm15, %xmm15 vpclmulqdq $17, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm12, %xmm12 vpclmulqdq $1, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 #NO_APP vpshufb %xmm18, %xmm26, %xmm5 vmovdqa64 %xmm24, %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm14, %xmm14 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm13, %xmm13 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm11, %xmm11 #NO_APP vmovaps -48(%rsp), %xmm7 vmovdqa64 %xmm23, %xmm10 #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 vpclmulqdq $16, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpclmulqdq $0, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm15, %xmm15 vpclmulqdq $17, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm12, %xmm12 vpclmulqdq $1, %xmm10, %xmm5, %xmm6 vpxor %xmm6, %xmm0, %xmm0 #NO_APP vmovdqu (%r9), %xmm5 vpshufb %xmm18, %xmm5, %xmm6 vpxor %xmm6, %xmm9, %xmm6 vmovdqa64 %xmm25, %xmm7 #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 #NO_APP vmovaps -64(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm11, %xmm11 vpclmulqdq $16, %xmm8, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpclmulqdq $0, %xmm8, %xmm6, %xmm7 vpxor %xmm7, %xmm15, %xmm15 vpclmulqdq $17, %xmm8, %xmm6, %xmm7 vpxor %xmm7, %xmm12, %xmm12 vpclmulqdq $1, %xmm8, %xmm6, %xmm7 vpxor %xmm7, %xmm0, %xmm0 #NO_APP vpxor %xmm7, %xmm7, %xmm7 vpunpcklqdq %xmm0, %xmm7, %xmm6 vpunpckhqdq %xmm7, %xmm0, %xmm0 vmovaps -32(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm14, %xmm14 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm13, %xmm13 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm11, %xmm11 #NO_APP vmovaps %xmm20, %xmm7 #APP vaesenclast %xmm7, %xmm2, %xmm2 vaesenclast %xmm7, %xmm14, %xmm14 vaesenclast %xmm7, %xmm3, %xmm3 vaesenclast %xmm7, %xmm13, %xmm13 vaesenclast %xmm7, %xmm1, %xmm1 vaesenclast %xmm7, %xmm11, %xmm11 #NO_APP vpxor %xmm5, %xmm2, %xmm2 vpxorq %xmm26, %xmm14, %xmm5 vpxorq %xmm27, %xmm3, %xmm3 vpxorq %xmm28, %xmm13, %xmm7 vpxorq %xmm29, %xmm1, %xmm1 vpxorq %xmm30, %xmm11, %xmm10 vmovapd %xmm31, %xmm11 vpxor %xmm6, %xmm15, %xmm6 vpshufd $78, %xmm6, %xmm9 vpbroadcastq .LCPI2_16(%rip), %xmm13 vpclmulqdq $16, %xmm13, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm6 vpxor %xmm0, %xmm12, %xmm9 vmovdqa64 %xmm16, %xmm12 vmovdqu %xmm2, (%rax) vmovdqu %xmm5, 16(%rax) vmovdqu %xmm3, 32(%rax) vmovdqu %xmm7, 48(%rax) vmovdqu %xmm1, 64(%rax) vmovdqu %xmm10, 80(%rax) vpshufd $78, %xmm6, %xmm0 vpbroadcastq .LCPI2_16(%rip), %xmm1 vpclmulqdq $16, %xmm1, %xmm6, %xmm1 vpternlogq $150, %xmm1, %xmm0, %xmm9 addq $96, %r9 addq $96, %rax addq $-96, %rcx vpaddd .LCPI2_23(%rip), %xmm17, %xmm17 cmpq $95, %rcx ja .LBB2_31 vmovdqa64 %xmm25, %xmm13 vmovdqa64 %xmm24, %xmm15 vmovdqa 112(%rsp), %xmm5 vmovdqa64 96(%rsp), %xmm27 vmovdqa64 80(%rsp), %xmm29 vmovdqa64 64(%rsp), %xmm30 vmovdqa -112(%rsp), %xmm6 vmovdqa64 -16(%rsp), %xmm21 vmovdqa64 %xmm5, %xmm19 cmpq $16, %rcx vmovdqa64 (%rsp), %xmm20 jae .LBB2_33 .LBB2_29: movq %rax, %rsi vmovdqa %xmm6, %xmm0 jmp .LBB2_35 .LBB2_27: vmovdqa %xmm10, %xmm13 vmovdqa %xmm14, %xmm15 movq %r10, %rcx vmovdqa64 %xmm5, %xmm19 cmpq $16, %rcx vmovdqa64 (%rsp), %xmm20 jb .LBB2_29 .LBB2_33: vmovdqa64 .LCPI2_15(%rip), %xmm18 vpmovsxbq .LCPI2_26(%rip), %xmm16 vmovdqa64 -128(%rsp), %xmm22 vmovdqa64 -48(%rsp), %xmm23 vmovdqa64 -64(%rsp), %xmm24 vmovdqa64 -32(%rsp), %xmm25 vmovdqa64 -96(%rsp), %xmm28 vpbroadcastq .LCPI2_16(%rip), %xmm31 vmovdqa64 -80(%rsp), %xmm26 vmovdqa64 %xmm19, %xmm14 vmovdqa64 %xmm27, %xmm1 vmovdqa64 %xmm29, %xmm12 vmovdqa64 %xmm30, %xmm8 vmovdqa64 %xmm20, %xmm10 .p2align 4, 0x90 .LBB2_34: vmovdqu (%r9), %xmm2 vpshufb %xmm18, %xmm2, %xmm3 vpxor %xmm3, %xmm9, %xmm3 vpclmulqdq $1, %xmm3, %xmm4, %xmm5 vpclmulqdq $16, %xmm3, %xmm4, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpclmulqdq $0, %xmm3, %xmm4, %xmm6 vpclmulqdq $17, %xmm3, %xmm4, %xmm3 vpslldq $8, %xmm5, %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpshufd $78, %xmm6, %xmm7 vmovdqa64 %xmm31, %xmm0 vpclmulqdq $16, %xmm0, %xmm6, %xmm6 vpxor %xmm7, %xmm6, %xmm6 vpshufd $78, %xmm6, %xmm7 vpclmulqdq $16, %xmm0, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm9 vmovdqa -112(%rsp), %xmm0 vpshufb %xmm18, %xmm17, %xmm3 vpxor %xmm3, %xmm11, %xmm3 vmovdqa64 %xmm26, %xmm6 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm14, %xmm3, %xmm3 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm0, %xmm3, %xmm3 vmovdqa64 %xmm22, %xmm6 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm15, %xmm3, %xmm3 vmovdqa64 %xmm23, %xmm6 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm13, %xmm3, %xmm3 vmovdqa64 %xmm24, %xmm6 vaesenc %xmm6, %xmm3, %xmm3 vmovdqa64 %xmm25, %xmm6 vaesenc %xmm6, %xmm3, %xmm3 vmovdqa64 %xmm28, %xmm6 vaesenclast %xmm6, %xmm3, %xmm3 vpxor %xmm2, %xmm3, %xmm2 leaq 16(%rax), %rsi addq $-16, %rcx addq $16, %r9 vpsrldq $8, %xmm5, %xmm3 vpternlogq $150, %xmm3, %xmm7, %xmm9 vpaddd %xmm16, %xmm17, %xmm17 vmovdqu %xmm2, (%rax) movq %rsi, %rax cmpq $15, %rcx ja .LBB2_34 .LBB2_35: vmovdqa %xmm0, %xmm6 testq %rcx, %rcx je .LBB2_40 movl $-1, %eax bzhil %ecx, %eax, %eax kmovd %eax, %k1 vmovdqu8 (%r9), %xmm1 {%k1} {z} vpshufb .LCPI2_15(%rip), %xmm17, %xmm0 vpxor %xmm0, %xmm11, %xmm0 vaesenc -80(%rsp), %xmm0, %xmm0 vmovdqa64 %xmm19, %xmm2 vaesenc %xmm2, %xmm0, %xmm0 vmovdqa64 %xmm27, %xmm2 vaesenc %xmm2, %xmm0, %xmm0 vmovdqa64 %xmm29, %xmm2 vaesenc %xmm2, %xmm0, %xmm0 vmovdqa64 %xmm30, %xmm2 vaesenc %xmm2, %xmm0, %xmm0 vmovdqa64 %xmm20, %xmm2 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vmovdqa -128(%rsp), %xmm7 vaesenc %xmm7, %xmm0, %xmm0 vmovdqa64 %xmm15, %xmm16 vaesenc %xmm15, %xmm0, %xmm0 vmovdqa -48(%rsp), %xmm15 vaesenc %xmm15, %xmm0, %xmm0 vmovdqa %xmm13, %xmm10 vaesenc %xmm13, %xmm0, %xmm0 vmovdqa -64(%rsp), %xmm13 vaesenc %xmm13, %xmm0, %xmm0 vaesenc -32(%rsp), %xmm0, %xmm0 vmovdqa -96(%rsp), %xmm8 vaesenclast %xmm8, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm2 vmovdqu8 %xmm2, (%rsi) {%k1} vmovdqu 32(%rdx), %xmm0 testq %r10, %r10 vpbroadcastq .LCPI2_16(%rip), %xmm12 je .LBB2_37 vpshufb .LCPI2_15(%rip), %xmm1, %xmm1 jmp .LBB2_42 .LBB2_40: vmovdqu 32(%rdx), %xmm0 vmovdqa -128(%rsp), %xmm7 vmovdqa64 %xmm15, %xmm16 vmovdqa -48(%rsp), %xmm15 vmovdqa %xmm13, %xmm10 vmovdqa -64(%rsp), %xmm13 vmovdqa -96(%rsp), %xmm8 vpbroadcastq .LCPI2_16(%rip), %xmm12 jmp .LBB2_43 .LBB2_46: vpshufb .LCPI2_15(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm9, %xmm0 vpclmulqdq $0, %xmm0, %xmm4, %xmm1 vpclmulqdq $1, %xmm0, %xmm4, %xmm2 vpclmulqdq $16, %xmm0, %xmm4, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $17, %xmm0, %xmm4, %xmm0 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $16, %xmm12, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm12, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm0, %xmm3, %xmm9 vpternlogq $150, %xmm2, %xmm1, %xmm9 .LBB2_39: vmovdqa64 %xmm14, %xmm16 vmovdqa64 %xmm5, %xmm19 vmovdqu 32(%rdx), %xmm0 vmovdqa (%rsp), %xmm14 vmovdqa -96(%rsp), %xmm8 jmp .LBB2_44 .LBB2_37: vpshufb .LCPI2_15(%rip), %xmm2, %xmm1 .LBB2_42: vpxor %xmm1, %xmm9, %xmm1 vpclmulqdq $0, %xmm1, %xmm4, %xmm2 vpclmulqdq $1, %xmm1, %xmm4, %xmm3 vpclmulqdq $16, %xmm1, %xmm4, %xmm5 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $17, %xmm1, %xmm4, %xmm1 vpslldq $8, %xmm3, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpclmulqdq $16, %xmm12, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm12, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm1, %xmm5, %xmm9 vpternlogq $150, %xmm3, %xmm2, %xmm9 .LBB2_43: vmovdqa64 %xmm20, %xmm14 .LBB2_44: shlq $3, %r10 vmovq %r8, %xmm1 vmovq %r10, %xmm2 vpunpcklqdq %xmm1, %xmm2, %xmm1 vpxor %xmm1, %xmm9, %xmm1 vpclmulqdq $1, %xmm1, %xmm4, %xmm2 vpclmulqdq $16, %xmm1, %xmm4, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $0, %xmm1, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm4, %xmm1 vpslldq $8, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpshufd $78, %xmm3, %xmm4 vpclmulqdq $16, %xmm12, %xmm3, %xmm3 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm12, %xmm3, %xmm4 vpxor %xmm1, %xmm4, %xmm1 vpxorq %xmm21, %xmm11, %xmm4 vaesenc -80(%rsp), %xmm4, %xmm4 vmovdqa64 %xmm19, %xmm5 vaesenc %xmm5, %xmm4, %xmm4 vmovdqa64 %xmm27, %xmm5 vaesenc %xmm5, %xmm4, %xmm4 vmovdqa64 %xmm29, %xmm5 vaesenc %xmm5, %xmm4, %xmm4 vmovdqa64 %xmm30, %xmm5 vaesenc %xmm5, %xmm4, %xmm4 vaesenc %xmm14, %xmm4, %xmm4 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm7, %xmm4, %xmm4 vmovdqa64 %xmm16, %xmm5 vaesenc %xmm5, %xmm4, %xmm4 vaesenc %xmm15, %xmm4, %xmm4 vaesenc %xmm10, %xmm4, %xmm4 vaesenc %xmm13, %xmm4, %xmm4 vaesenc -32(%rsp), %xmm4, %xmm4 vaesenclast %xmm8, %xmm4, %xmm4 vpshufb .LCPI2_24(%rip), %xmm3, %xmm3 vpshufb .LCPI2_15(%rip), %xmm1, %xmm1 vpshufb .LCPI2_25(%rip), %xmm2, %xmm2 vpternlogq $150, %xmm1, %xmm3, %xmm2 vpternlogq $150, %xmm4, %xmm0, %xmm2 xorl %eax, %eax vptest %xmm2, %xmm2 sete %al .LBB2_45: addq $136, %rsp .cfi_def_cfa_offset 24 popq %rbx .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end2: .size haberdashery_aes256gcmdndkv2kc_skylakex_decrypt, .Lfunc_end2-haberdashery_aes256gcmdndkv2kc_skylakex_decrypt .cfi_endproc .section .text.haberdashery_aes256gcmdndkv2kc_skylakex_is_supported,"ax",@progbits .globl haberdashery_aes256gcmdndkv2kc_skylakex_is_supported .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2kc_skylakex_is_supported,@function haberdashery_aes256gcmdndkv2kc_skylakex_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $-779157207, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end3: .size haberdashery_aes256gcmdndkv2kc_skylakex_is_supported, .Lfunc_end3-haberdashery_aes256gcmdndkv2kc_skylakex_is_supported .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
80,488
asm/aes256gcmsiv_tigerlake.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI0_1: .quad 4294967297 .LCPI0_2: .quad 8589934594 .LCPI0_3: .quad 17179869188 .LCPI0_4: .quad 34359738376 .LCPI0_5: .quad 68719476752 .LCPI0_6: .quad 137438953504 .LCPI0_7: .quad 274877907008 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI0_8: .byte 13 .byte 14 .byte 15 .byte 12 .section .text.haberdashery_aes256gcmsiv_tigerlake_init,"ax",@progbits .globl haberdashery_aes256gcmsiv_tigerlake_init .p2align 4, 0x90 .type haberdashery_aes256gcmsiv_tigerlake_init,@function haberdashery_aes256gcmsiv_tigerlake_init: .cfi_startproc cmpq $32, %rdx jne .LBB0_2 vmovupd (%rsi), %xmm0 vmovdqu 16(%rsi), %xmm1 vpslldq $4, %xmm0, %xmm2 vpslldq $8, %xmm0, %xmm3 vpslldq $12, %xmm0, %xmm4 vpternlogq $150, %xmm3, %xmm2, %xmm4 vpbroadcastd .LCPI0_8(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm2 vpbroadcastq .LCPI0_1(%rip), %xmm5 vaesenclast %xmm5, %xmm2, %xmm2 vpternlogq $150, %xmm4, %xmm0, %xmm2 vpslldq $4, %xmm1, %xmm4 vpslldq $8, %xmm1, %xmm5 vpslldq $12, %xmm1, %xmm7 vpternlogq $150, %xmm5, %xmm4, %xmm7 vpshufd $255, %xmm2, %xmm4 vpxor %xmm6, %xmm6, %xmm6 vaesenclast %xmm6, %xmm4, %xmm4 vpternlogq $150, %xmm7, %xmm1, %xmm4 vpslldq $4, %xmm2, %xmm5 vpslldq $8, %xmm2, %xmm7 vpslldq $12, %xmm2, %xmm8 vpternlogq $150, %xmm7, %xmm5, %xmm8 vpshufb %xmm3, %xmm4, %xmm5 vpbroadcastq .LCPI0_2(%rip), %xmm7 vaesenclast %xmm7, %xmm5, %xmm5 vpternlogq $150, %xmm8, %xmm2, %xmm5 vpslldq $4, %xmm4, %xmm7 vpslldq $8, %xmm4, %xmm8 vpslldq $12, %xmm4, %xmm9 vpternlogq $150, %xmm8, %xmm7, %xmm9 vpshufd $255, %xmm5, %xmm7 vaesenclast %xmm6, %xmm7, %xmm7 vpternlogq $150, %xmm9, %xmm4, %xmm7 vpslldq $4, %xmm5, %xmm8 vpslldq $8, %xmm5, %xmm9 vpslldq $12, %xmm5, %xmm10 vpternlogq $150, %xmm9, %xmm8, %xmm10 vpshufb %xmm3, %xmm7, %xmm8 vpbroadcastq .LCPI0_3(%rip), %xmm9 vaesenclast %xmm9, %xmm8, %xmm8 vpternlogq $150, %xmm10, %xmm5, %xmm8 vpslldq $4, %xmm7, %xmm9 vpslldq $8, %xmm7, %xmm10 vpslldq $12, %xmm7, %xmm11 vpternlogq $150, %xmm10, %xmm9, %xmm11 vpshufd $255, %xmm8, %xmm9 vaesenclast %xmm6, %xmm9, %xmm9 vpternlogq $150, %xmm11, %xmm7, %xmm9 vpslldq $4, %xmm8, %xmm10 vpslldq $8, %xmm8, %xmm11 vpslldq $12, %xmm8, %xmm12 vpternlogq $150, %xmm11, %xmm10, %xmm12 vpshufb %xmm3, %xmm9, %xmm10 vpbroadcastq .LCPI0_4(%rip), %xmm11 vaesenclast %xmm11, %xmm10, %xmm10 vpternlogq $150, %xmm12, %xmm8, %xmm10 vpslldq $4, %xmm9, %xmm11 vpslldq $8, %xmm9, %xmm12 vpslldq $12, %xmm9, %xmm13 vpternlogq $150, %xmm12, %xmm11, %xmm13 vpshufd $255, %xmm10, %xmm11 vaesenclast %xmm6, %xmm11, %xmm11 vpternlogq $150, %xmm13, %xmm9, %xmm11 vpslldq $4, %xmm10, %xmm12 vpslldq $8, %xmm10, %xmm13 vpslldq $12, %xmm10, %xmm14 vpternlogq $150, %xmm13, %xmm12, %xmm14 vpshufb %xmm3, %xmm11, %xmm12 vpbroadcastq .LCPI0_5(%rip), %xmm13 vaesenclast %xmm13, %xmm12, %xmm12 vpternlogq $150, %xmm14, %xmm10, %xmm12 vpslldq $4, %xmm11, %xmm13 vpslldq $8, %xmm11, %xmm14 vpslldq $12, %xmm11, %xmm15 vpternlogq $150, %xmm14, %xmm13, %xmm15 vpshufd $255, %xmm12, %xmm13 vaesenclast %xmm6, %xmm13, %xmm13 vpternlogq $150, %xmm15, %xmm11, %xmm13 vpslldq $4, %xmm12, %xmm14 vpslldq $8, %xmm12, %xmm15 vpslldq $12, %xmm12, %xmm16 vpternlogq $150, %xmm15, %xmm14, %xmm16 vpshufb %xmm3, %xmm13, %xmm14 vpbroadcastq .LCPI0_6(%rip), %xmm15 vaesenclast %xmm15, %xmm14, %xmm14 vpternlogq $150, %xmm16, %xmm12, %xmm14 vpslldq $4, %xmm13, %xmm15 vpslldq $8, %xmm13, %xmm16 vpslldq $12, %xmm13, %xmm17 vpternlogq $150, %xmm16, %xmm15, %xmm17 vpshufd $255, %xmm14, %xmm15 vaesenclast %xmm6, %xmm15, %xmm6 vpternlogq $150, %xmm17, %xmm13, %xmm6 vpslldq $4, %xmm14, %xmm15 vpslldq $8, %xmm14, %xmm16 vpslldq $12, %xmm14, %xmm17 vpternlogq $150, %xmm16, %xmm15, %xmm17 vpshufb %xmm3, %xmm6, %xmm3 vpbroadcastq .LCPI0_7(%rip), %xmm15 vaesenclast %xmm15, %xmm3, %xmm3 vpternlogq $150, %xmm17, %xmm14, %xmm3 vmovdqa %xmm0, (%rdi) vmovdqa %xmm1, 16(%rdi) vmovdqa %xmm2, 32(%rdi) vmovdqa %xmm4, 48(%rdi) vmovdqa %xmm5, 64(%rdi) vmovdqa %xmm7, 80(%rdi) vmovdqa %xmm8, 96(%rdi) vmovdqa %xmm9, 112(%rdi) vmovdqa %xmm10, 128(%rdi) vmovdqa %xmm11, 144(%rdi) vmovdqa %xmm12, 160(%rdi) vmovdqa %xmm13, 176(%rdi) vmovdqa %xmm14, 192(%rdi) vmovdqa %xmm6, 208(%rdi) vmovdqa %xmm3, 224(%rdi) .LBB0_2: xorl %eax, %eax cmpq $32, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes256gcmsiv_tigerlake_init, .Lfunc_end0-haberdashery_aes256gcmsiv_tigerlake_init .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI1_0: .long 1 .long 0 .long 0 .long 0 .LCPI1_1: .quad 2 .quad 0 .LCPI1_2: .long 3 .long 0 .long 0 .long 0 .LCPI1_3: .quad 4 .quad 0 .LCPI1_4: .long 5 .long 0 .long 0 .long 0 .LCPI1_5: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI1_14: .quad -1 .quad 9223372036854775807 .LCPI1_15: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 128 .LCPI1_23: .long 16 .long 0 .long 0 .long 0 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI1_6: .quad 4294967297 .LCPI1_7: .quad 8589934594 .LCPI1_8: .quad 17179869188 .LCPI1_9: .quad 34359738376 .LCPI1_10: .quad 68719476752 .LCPI1_11: .quad 137438953504 .LCPI1_12: .quad 274877907008 .LCPI1_13: .quad -4467570830351532032 .section .rodata.cst32,"aM",@progbits,32 .p2align 5, 0x0 .LCPI1_16: .long 2 .long 0 .long 0 .long 0 .long 3 .long 0 .long 0 .long 0 .LCPI1_17: .long 4 .long 0 .long 0 .long 0 .long 5 .long 0 .long 0 .long 0 .LCPI1_18: .long 6 .long 0 .long 0 .long 0 .long 7 .long 0 .long 0 .long 0 .LCPI1_19: .long 8 .long 0 .long 0 .long 0 .long 9 .long 0 .long 0 .long 0 .LCPI1_20: .long 10 .long 0 .long 0 .long 0 .long 11 .long 0 .long 0 .long 0 .LCPI1_21: .long 12 .long 0 .long 0 .long 0 .long 13 .long 0 .long 0 .long 0 .LCPI1_22: .long 14 .long 0 .long 0 .long 0 .long 15 .long 0 .long 0 .long 0 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI1_24: .byte 13 .byte 14 .byte 15 .byte 12 .LCPI1_25: .byte 2 .byte 0 .byte 3 .byte 0 .LCPI1_26: .byte 4 .byte 0 .byte 5 .byte 0 .LCPI1_27: .byte 6 .byte 0 .byte 7 .byte 0 .LCPI1_28: .byte 8 .byte 0 .byte 9 .byte 0 .LCPI1_29: .byte 10 .byte 0 .byte 11 .byte 0 .LCPI1_30: .byte 12 .byte 0 .byte 13 .byte 0 .LCPI1_31: .byte 14 .byte 0 .byte 15 .byte 0 .section .rodata,"a",@progbits .LCPI1_32: .byte 16 .byte 0 .LCPI1_33: .byte 1 .byte 0 .LCPI1_34: .byte 4 .byte 0 .section .text.haberdashery_aes256gcmsiv_tigerlake_encrypt,"ax",@progbits .globl haberdashery_aes256gcmsiv_tigerlake_encrypt .p2align 4, 0x90 .type haberdashery_aes256gcmsiv_tigerlake_encrypt,@function haberdashery_aes256gcmsiv_tigerlake_encrypt: .cfi_startproc pushq %rbx .cfi_def_cfa_offset 16 subq $400, %rsp .cfi_def_cfa_offset 416 .cfi_offset %rbx, -16 movq 416(%rsp), %r10 xorl %eax, %eax cmpq 432(%rsp), %r10 jne .LBB1_49 movabsq $68719476737, %rax cmpq %rax, %r8 setb %r11b cmpq %rax, %r10 setb %bl andb %r11b, %bl cmpq $16, 448(%rsp) sete %r11b cmpq $12, %rdx sete %al andb %r11b, %al andb %bl, %al cmpb $1, %al jne .LBB1_48 vmovsd 4(%rsi), %xmm0 vmovss (%rsi), %xmm1 vshufps $65, %xmm0, %xmm1, %xmm0 vxorps (%rdi), %xmm0, %xmm2 vxorps .LCPI1_0(%rip), %xmm2, %xmm3 vxorps .LCPI1_1(%rip), %xmm2, %xmm1 vxorps .LCPI1_2(%rip), %xmm2, %xmm4 vxorps .LCPI1_3(%rip), %xmm2, %xmm0 vxorps .LCPI1_4(%rip), %xmm2, %xmm5 vmovaps 16(%rdi), %xmm7 vmovaps 32(%rdi), %xmm8 vmovaps 48(%rdi), %xmm9 vmovaps 64(%rdi), %xmm6 #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm8, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm9, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 80(%rdi), %xmm6 vmovaps 96(%rdi), %xmm7 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP vmovaps 112(%rdi), %xmm6 vmovaps 128(%rdi), %xmm7 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP vmovaps 144(%rdi), %xmm6 vmovaps 160(%rdi), %xmm7 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP vmovaps 176(%rdi), %xmm6 vmovaps 192(%rdi), %xmm7 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP vmovaps 208(%rdi), %xmm6 vmovaps 224(%rdi), %xmm7 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP #APP vaesenclast %xmm7, %xmm2, %xmm2 vaesenclast %xmm7, %xmm3, %xmm3 vaesenclast %xmm7, %xmm1, %xmm1 vaesenclast %xmm7, %xmm4, %xmm4 vaesenclast %xmm7, %xmm0, %xmm0 vaesenclast %xmm7, %xmm5, %xmm5 #NO_APP vpunpcklqdq %xmm3, %xmm2, %xmm14 vpunpcklqdq %xmm4, %xmm1, %xmm24 vpunpcklqdq %xmm5, %xmm0, %xmm31 vpslldq $4, %xmm24, %xmm2 vxorpd %xmm13, %xmm13, %xmm13 vpunpcklqdq %xmm1, %xmm13, %xmm3 vinsertps $55, %xmm1, %xmm0, %xmm1 vpternlogq $150, %xmm3, %xmm2, %xmm1 vpbroadcastd .LCPI1_24(%rip), %xmm16 vpshufb %xmm16, %xmm31, %xmm2 vpbroadcastq .LCPI1_6(%rip), %xmm3 vaesenclast %xmm3, %xmm2, %xmm7 vpternlogq $150, %xmm1, %xmm24, %xmm7 vpslldq $4, %xmm31, %xmm1 vpunpcklqdq %xmm0, %xmm13, %xmm2 vinsertps $55, %xmm0, %xmm0, %xmm0 vpternlogq $150, %xmm2, %xmm1, %xmm0 vpshufd $255, %xmm7, %xmm1 vaesenclast %xmm13, %xmm1, %xmm8 vpternlogq $150, %xmm0, %xmm31, %xmm8 vpslldq $4, %xmm7, %xmm0 vpslldq $8, %xmm7, %xmm1 vpslldq $12, %xmm7, %xmm2 vpternlogq $150, %xmm1, %xmm0, %xmm2 vpbroadcastq .LCPI1_7(%rip), %xmm0 vpshufb %xmm16, %xmm8, %xmm1 vaesenclast %xmm0, %xmm1, %xmm9 vpternlogq $150, %xmm2, %xmm7, %xmm9 vpslldq $4, %xmm8, %xmm0 vpslldq $8, %xmm8, %xmm1 vpslldq $12, %xmm8, %xmm2 vpternlogq $150, %xmm1, %xmm0, %xmm2 vpshufd $255, %xmm9, %xmm0 vaesenclast %xmm13, %xmm0, %xmm10 vpternlogq $150, %xmm2, %xmm8, %xmm10 vpslldq $4, %xmm9, %xmm0 vpslldq $8, %xmm9, %xmm1 vpslldq $12, %xmm9, %xmm2 vpternlogq $150, %xmm1, %xmm0, %xmm2 vpshufb %xmm16, %xmm10, %xmm0 vpbroadcastq .LCPI1_8(%rip), %xmm1 vaesenclast %xmm1, %xmm0, %xmm11 vpternlogq $150, %xmm2, %xmm9, %xmm11 vpslldq $4, %xmm10, %xmm0 vpslldq $8, %xmm10, %xmm1 vpslldq $12, %xmm10, %xmm2 vpternlogq $150, %xmm1, %xmm0, %xmm2 vpshufd $255, %xmm11, %xmm0 vaesenclast %xmm13, %xmm0, %xmm12 vpternlogq $150, %xmm2, %xmm10, %xmm12 vpslldq $4, %xmm11, %xmm0 vpslldq $8, %xmm11, %xmm1 vpslldq $12, %xmm11, %xmm2 vpternlogq $150, %xmm1, %xmm0, %xmm2 vpshufb %xmm16, %xmm12, %xmm0 vpbroadcastq .LCPI1_9(%rip), %xmm1 vaesenclast %xmm1, %xmm0, %xmm3 vpternlogq $150, %xmm2, %xmm11, %xmm3 vpslldq $4, %xmm12, %xmm0 vpslldq $8, %xmm12, %xmm1 vpslldq $12, %xmm12, %xmm2 vpternlogq $150, %xmm1, %xmm0, %xmm2 vpshufd $255, %xmm3, %xmm0 vaesenclast %xmm13, %xmm0, %xmm27 vpternlogq $150, %xmm2, %xmm12, %xmm27 vpslldq $4, %xmm3, %xmm0 vpslldq $8, %xmm3, %xmm1 vpslldq $12, %xmm3, %xmm2 vpternlogq $150, %xmm1, %xmm0, %xmm2 vpbroadcastq .LCPI1_10(%rip), %xmm0 vpshufb %xmm16, %xmm27, %xmm1 vaesenclast %xmm0, %xmm1, %xmm28 vmovups %ymm3, 336(%rsp) vpternlogq $150, %xmm2, %xmm3, %xmm28 vpslldq $4, %xmm27, %xmm0 vpslldq $8, %xmm27, %xmm1 vpslldq $12, %xmm27, %xmm2 vpternlogq $150, %xmm1, %xmm0, %xmm2 vpshufd $255, %xmm28, %xmm0 vaesenclast %xmm13, %xmm0, %xmm29 vpternlogq $150, %xmm2, %xmm27, %xmm29 vpslldq $4, %xmm28, %xmm0 vpslldq $8, %xmm28, %xmm1 vpslldq $12, %xmm28, %xmm2 vpternlogq $150, %xmm1, %xmm0, %xmm2 vpshufb %xmm16, %xmm29, %xmm0 vpbroadcastq .LCPI1_11(%rip), %xmm1 vaesenclast %xmm1, %xmm0, %xmm30 vpternlogq $150, %xmm2, %xmm28, %xmm30 vpslldq $4, %xmm29, %xmm6 vpslldq $8, %xmm29, %xmm0 vmovapd %xmm0, -128(%rsp) vpslldq $12, %xmm29, %xmm23 vpshufd $255, %xmm30, %xmm0 vmovdqa %xmm0, -96(%rsp) vpclmulqdq $0, %xmm14, %xmm14, %xmm0 vpbroadcastq .LCPI1_13(%rip), %ymm15 vpclmulqdq $16, %xmm15, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $16, %xmm15, %xmm0, %xmm1 vpclmulqdq $17, %xmm14, %xmm14, %xmm2 vpshufd $78, %xmm0, %xmm17 vpternlogq $150, %xmm1, %xmm2, %xmm17 vpclmulqdq $0, %xmm17, %xmm17, %xmm0 vpclmulqdq $16, %xmm15, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $16, %xmm15, %xmm0, %xmm1 vpclmulqdq $17, %xmm17, %xmm17, %xmm2 vpshufd $78, %xmm0, %xmm0 vpternlogq $150, %xmm1, %xmm2, %xmm0 vinserti32x4 $1, %xmm0, %ymm0, %ymm18 vinserti32x4 $1, %xmm0, %ymm17, %ymm0 vpclmulqdq $0, %ymm0, %ymm18, %ymm1 vpunpckhqdq %ymm0, %ymm18, %ymm2 vpunpcklqdq %ymm0, %ymm18, %ymm3 vpxor %ymm3, %ymm2, %ymm2 vpclmulqdq $1, %ymm2, %ymm2, %ymm2 vpclmulqdq $17, %ymm0, %ymm18, %ymm0 vpternlogq $150, %ymm1, %ymm0, %ymm2 vpslldq $8, %ymm2, %ymm3 vpxor %ymm3, %ymm1, %ymm1 vpclmulqdq $16, %ymm15, %ymm1, %ymm3 vpshufd $78, %ymm1, %ymm1 vpxor %ymm1, %ymm3, %ymm1 vpclmulqdq $16, %ymm15, %ymm1, %ymm3 vpsrldq $8, %ymm2, %ymm2 vpxor %ymm2, %ymm3, %ymm2 vpshufd $78, %ymm1, %ymm1 vpternlogq $150, %ymm2, %ymm0, %ymm1 vextracti32x4 $1, %ymm1, %xmm22 vpclmulqdq $0, %ymm1, %ymm18, %ymm0 vpunpckhqdq %ymm1, %ymm18, %ymm2 vpunpcklqdq %ymm1, %ymm18, %ymm3 vpxor %ymm3, %ymm2, %ymm2 vpclmulqdq $1, %ymm2, %ymm2, %ymm2 vpclmulqdq $17, %ymm1, %ymm18, %ymm3 vpternlogq $150, %ymm0, %ymm3, %ymm2 vpslldq $8, %ymm2, %ymm4 vpxor %ymm4, %ymm0, %ymm0 vpclmulqdq $16, %ymm15, %ymm0, %ymm4 vpshufd $78, %ymm0, %ymm0 vpxor %ymm0, %ymm4, %ymm0 vpclmulqdq $16, %ymm15, %ymm0, %ymm4 vpsrldq $8, %ymm2, %ymm2 vpxor %ymm2, %ymm4, %ymm2 vpshufd $78, %ymm0, %ymm0 vpternlogq $150, %ymm2, %ymm3, %ymm0 vextracti32x4 $1, %ymm0, %xmm25 vpunpcklqdq %ymm0, %ymm18, %ymm2 vpunpckhqdq %ymm0, %ymm18, %ymm3 vpxor %ymm2, %ymm3, %ymm2 vpclmulqdq $0, %ymm0, %ymm18, %ymm3 vpclmulqdq $1, %ymm2, %ymm2, %ymm2 vpclmulqdq $17, %ymm0, %ymm18, %ymm4 vpternlogq $150, %ymm3, %ymm4, %ymm2 vpslldq $8, %ymm2, %ymm5 vpxor %ymm5, %ymm3, %ymm3 vpsrldq $8, %ymm2, %ymm2 vpclmulqdq $16, %ymm15, %ymm3, %ymm5 vpshufd $78, %ymm3, %ymm3 vpxor %ymm3, %ymm5, %ymm3 vpclmulqdq $16, %ymm15, %ymm3, %ymm5 vpxor %ymm2, %ymm5, %ymm2 vpshufd $78, %ymm3, %ymm3 vpternlogq $150, %ymm2, %ymm4, %ymm3 vextracti128 $1, %ymm3, %xmm4 vpxord %xmm26, %xmm26, %xmm26 vpermq $68, %ymm1, %ymm19 vpermq $68, %ymm0, %ymm20 vpermq $68, %ymm3, %ymm21 cmpq $256, %r8 vmovups %ymm27, 144(%rsp) vmovups %ymm28, 112(%rsp) vmovups %ymm29, 80(%rsp) vmovdqu64 %ymm30, 48(%rsp) vmovups %ymm31, 176(%rsp) vmovups %ymm24, -64(%rsp) vmovdqu %ymm4, 16(%rsp) jb .LBB1_6 vmovapd %xmm6, -32(%rsp) vinserti32x4 $1, %xmm17, %ymm17, %ymm0 vmovdqu64 %ymm22, -16(%rsp) vinserti32x4 $1, %xmm22, %ymm22, %ymm1 vmovdqu64 %ymm25, 368(%rsp) vinserti32x4 $1, %xmm25, %ymm25, %ymm2 vinserti128 $1, %xmm4, %ymm4, %ymm3 movq %r8, %rdx .p2align 4, 0x90 .LBB1_4: vmovdqu 32(%rcx), %ymm5 vmovdqu64 64(%rcx), %ymm30 vmovdqu64 96(%rcx), %ymm31 vmovdqu64 128(%rcx), %ymm22 vmovdqu64 160(%rcx), %ymm24 vmovdqu64 192(%rcx), %ymm25 vmovdqu64 224(%rcx), %ymm16 vpxorq (%rcx), %ymm26, %ymm4 addq $256, %rcx addq $-256, %rdx vpunpcklqdq %ymm16, %ymm0, %ymm26 vpunpckhqdq %ymm16, %ymm0, %ymm27 vpxorq %ymm26, %ymm27, %ymm26 vpclmulqdq $0, %ymm16, %ymm0, %ymm27 vpclmulqdq $1, %ymm26, %ymm26, %ymm26 vpclmulqdq $17, %ymm16, %ymm0, %ymm16 vpunpcklqdq %ymm25, %ymm18, %ymm28 vpunpckhqdq %ymm25, %ymm18, %ymm29 vpxorq %ymm28, %ymm29, %ymm28 vpclmulqdq $0, %ymm25, %ymm18, %ymm29 vpxorq %ymm27, %ymm29, %ymm27 vpclmulqdq $1, %ymm28, %ymm28, %ymm28 vpxorq %ymm26, %ymm28, %ymm26 vpclmulqdq $17, %ymm25, %ymm18, %ymm25 vpxorq %ymm16, %ymm25, %ymm16 vpunpcklqdq %ymm24, %ymm19, %ymm25 vpunpckhqdq %ymm24, %ymm19, %ymm28 vpxorq %ymm25, %ymm28, %ymm25 vpclmulqdq $0, %ymm24, %ymm19, %ymm28 vpclmulqdq $1, %ymm25, %ymm25, %ymm25 vpclmulqdq $17, %ymm24, %ymm19, %ymm24 vpunpcklqdq %ymm22, %ymm1, %ymm29 vpunpckhqdq %ymm22, %ymm1, %ymm6 vpxorq %ymm29, %ymm6, %ymm6 vpclmulqdq $0, %ymm22, %ymm1, %ymm29 vpternlogq $150, %ymm28, %ymm27, %ymm29 vpclmulqdq $1, %ymm6, %ymm6, %ymm6 vpternlogq $150, %ymm25, %ymm26, %ymm6 vpclmulqdq $17, %ymm22, %ymm1, %ymm22 vpternlogq $150, %ymm24, %ymm16, %ymm22 vpunpcklqdq %ymm31, %ymm20, %ymm16 vpunpckhqdq %ymm31, %ymm20, %ymm24 vpxorq %ymm16, %ymm24, %ymm16 vpclmulqdq $0, %ymm31, %ymm20, %ymm24 vpclmulqdq $1, %ymm16, %ymm16, %ymm16 vpclmulqdq $17, %ymm31, %ymm20, %ymm25 vpunpcklqdq %ymm30, %ymm2, %ymm26 vpunpckhqdq %ymm30, %ymm2, %ymm27 vpxorq %ymm26, %ymm27, %ymm26 vpclmulqdq $0, %ymm30, %ymm2, %ymm27 vpternlogq $150, %ymm24, %ymm29, %ymm27 vpclmulqdq $1, %ymm26, %ymm26, %ymm24 vpternlogq $150, %ymm16, %ymm6, %ymm24 vpclmulqdq $17, %ymm30, %ymm2, %ymm6 vpternlogq $150, %ymm25, %ymm22, %ymm6 vpunpcklqdq %ymm5, %ymm21, %ymm16 vpunpckhqdq %ymm5, %ymm21, %ymm22 vpxorq %ymm16, %ymm22, %ymm16 vpclmulqdq $0, %ymm5, %ymm21, %ymm22 vpclmulqdq $1, %ymm16, %ymm16, %ymm16 vpclmulqdq $17, %ymm5, %ymm21, %ymm5 vpunpcklqdq %ymm4, %ymm3, %ymm25 vpunpckhqdq %ymm4, %ymm3, %ymm26 vpxorq %ymm25, %ymm26, %ymm25 vpclmulqdq $0, %ymm4, %ymm3, %ymm26 vpternlogq $150, %ymm22, %ymm27, %ymm26 vpclmulqdq $1, %ymm25, %ymm25, %ymm22 vpternlogq $150, %ymm16, %ymm24, %ymm22 vpclmulqdq $17, %ymm4, %ymm3, %ymm4 vpternlogq $150, %ymm5, %ymm6, %ymm4 vpternlogq $150, %ymm26, %ymm4, %ymm22 vpslldq $8, %ymm22, %ymm5 vpxorq %ymm5, %ymm26, %ymm5 vpsrldq $8, %ymm22, %ymm6 vpclmulqdq $16, %ymm15, %ymm5, %ymm16 vpshufd $78, %ymm5, %ymm5 vpxorq %ymm5, %ymm16, %ymm5 vpclmulqdq $16, %ymm15, %ymm5, %ymm16 vpxorq %ymm6, %ymm16, %ymm6 vpshufd $78, %ymm5, %ymm26 vpternlogq $150, %ymm6, %ymm4, %ymm26 cmpq $255, %rdx ja .LBB1_4 vmovupd 144(%rsp), %ymm27 vmovupd 112(%rsp), %ymm28 vmovupd 80(%rsp), %ymm29 vmovdqu64 48(%rsp), %ymm30 vmovups 176(%rsp), %ymm31 vmovupd -64(%rsp), %ymm24 vpbroadcastd .LCPI1_24(%rip), %xmm16 vmovdqu64 -16(%rsp), %ymm22 vmovdqu64 368(%rsp), %ymm25 vmovapd -32(%rsp), %xmm6 jmp .LBB1_7 .LBB1_6: movq %r8, %rdx .LBB1_7: vpternlogq $150, -128(%rsp), %xmm6, %xmm23 vmovdqa -96(%rsp), %xmm0 vaesenclast %xmm13, %xmm0, %xmm6 cmpq $32, %rdx jb .LBB1_14 vinserti32x4 $1, %xmm17, %ymm17, %ymm0 leaq -32(%rdx), %rdi testb $32, %dil jne .LBB1_9 vpxorq (%rcx), %ymm26, %ymm1 addq $32, %rcx vpunpcklqdq %ymm1, %ymm0, %ymm2 vpunpckhqdq %ymm1, %ymm0, %ymm3 vpxor %ymm2, %ymm3, %ymm2 vpclmulqdq $0, %ymm1, %ymm0, %ymm3 vpclmulqdq $1, %ymm2, %ymm2, %ymm2 vpclmulqdq $17, %ymm1, %ymm0, %ymm1 vpternlogq $150, %ymm3, %ymm1, %ymm2 vpslldq $8, %ymm2, %ymm4 vpxor %ymm4, %ymm3, %ymm3 vpsrldq $8, %ymm2, %ymm2 vpclmulqdq $16, %ymm15, %ymm3, %ymm4 vpshufd $78, %ymm3, %ymm3 vpxor %ymm3, %ymm4, %ymm3 vpclmulqdq $16, %ymm15, %ymm3, %ymm4 vpxor %ymm2, %ymm4, %ymm2 vpshufd $78, %ymm3, %ymm26 vpternlogq $150, %ymm2, %ymm1, %ymm26 movq %rdi, %rdx cmpq $32, %rdi jb .LBB1_10 jmp .LBB1_13 .LBB1_9: cmpq $32, %rdi jae .LBB1_13 .LBB1_10: vpternlogq $150, %xmm23, %xmm29, %xmm6 testq %rdi, %rdi jne .LBB1_15 jmp .LBB1_18 .p2align 4, 0x90 .LBB1_13: vpxorq (%rcx), %ymm26, %ymm1 vpunpcklqdq %ymm1, %ymm0, %ymm2 vpunpckhqdq %ymm1, %ymm0, %ymm3 vpxor %ymm2, %ymm3, %ymm2 vpclmulqdq $0, %ymm1, %ymm0, %ymm3 vpclmulqdq $1, %ymm2, %ymm2, %ymm2 vpclmulqdq $17, %ymm1, %ymm0, %ymm1 vpternlogq $150, %ymm3, %ymm1, %ymm2 vpslldq $8, %ymm2, %ymm4 vpxor %ymm4, %ymm3, %ymm3 vpsrldq $8, %ymm2, %ymm2 vpclmulqdq $16, %ymm15, %ymm3, %ymm4 vpshufd $78, %ymm3, %ymm3 vpxor %ymm3, %ymm4, %ymm3 vpclmulqdq $16, %ymm15, %ymm3, %ymm4 vpshufd $78, %ymm3, %ymm3 vpternlogq $150, %ymm2, %ymm4, %ymm3 addq $-64, %rdx vpternlogq $150, 32(%rcx), %ymm1, %ymm3 addq $64, %rcx vpunpcklqdq %ymm3, %ymm0, %ymm1 vpunpckhqdq %ymm3, %ymm0, %ymm2 vpxor %ymm1, %ymm2, %ymm1 vpclmulqdq $0, %ymm3, %ymm0, %ymm2 vpclmulqdq $1, %ymm1, %ymm1, %ymm1 vpclmulqdq $17, %ymm3, %ymm0, %ymm3 vpternlogq $150, %ymm2, %ymm3, %ymm1 vpslldq $8, %ymm1, %ymm4 vpxor %ymm4, %ymm2, %ymm2 vpsrldq $8, %ymm1, %ymm1 vpclmulqdq $16, %ymm15, %ymm2, %ymm4 vpshufd $78, %ymm2, %ymm2 vpxor %ymm2, %ymm4, %ymm2 vpclmulqdq $16, %ymm15, %ymm2, %ymm4 vpxor %ymm1, %ymm4, %ymm1 vpshufd $78, %ymm2, %ymm26 vpternlogq $150, %ymm1, %ymm3, %ymm26 cmpq $31, %rdx ja .LBB1_13 .LBB1_14: movq %rdx, %rdi vpternlogq $150, %xmm23, %xmm29, %xmm6 testq %rdi, %rdi je .LBB1_18 .LBB1_15: movl $-1, %edx bzhil %edi, %edx, %edx kmovd %edx, %k1 vmovdqu8 (%rcx), %ymm0 {%k1} {z} vpxorq %ymm0, %ymm26, %ymm0 vmovdqa64 %xmm17, %xmm1 cmpq $17, %rdi jae .LBB1_17 vmovdqa %xmm14, %xmm1 .LBB1_17: vinserti128 $1, %xmm1, %ymm1, %ymm1 vpunpcklqdq %ymm0, %ymm1, %ymm2 vpunpckhqdq %ymm0, %ymm1, %ymm3 vpxor %ymm2, %ymm3, %ymm2 vpclmulqdq $0, %ymm0, %ymm1, %ymm3 vpclmulqdq $1, %ymm2, %ymm2, %ymm2 vpclmulqdq $17, %ymm0, %ymm1, %ymm0 vpternlogq $150, %ymm3, %ymm0, %ymm2 vpslldq $8, %ymm2, %ymm1 vpxor %ymm1, %ymm3, %ymm1 vpsrldq $8, %ymm2, %ymm2 vpclmulqdq $16, %ymm15, %ymm1, %ymm3 vpshufd $78, %ymm1, %ymm1 vpxor %ymm1, %ymm3, %ymm1 vpclmulqdq $16, %ymm15, %ymm1, %ymm3 vpxor %ymm2, %ymm3, %ymm2 vpshufd $78, %ymm1, %ymm26 vpternlogq $150, %ymm2, %ymm0, %ymm26 .LBB1_18: vpslldq $4, %xmm30, %xmm0 vpslldq $8, %xmm30, %xmm1 vpslldq $12, %xmm30, %xmm23 vpshufb %xmm16, %xmm6, %xmm2 vpbroadcastq .LCPI1_12(%rip), %xmm3 vmovq %r10, %xmm4 vmovq %r8, %xmm5 cmpq $256, %r10 vmovdqu %ymm6, -128(%rsp) vmovups %ymm9, 304(%rsp) vmovups %ymm10, 272(%rsp) vmovups %ymm11, 240(%rsp) vmovups %ymm12, 208(%rsp) jb .LBB1_22 vmovapd %ymm8, %ymm11 vmovapd %ymm7, %ymm12 vinserti32x4 $1, %xmm17, %ymm17, %ymm13 vinserti32x4 $1, %xmm22, %ymm22, %ymm16 vinserti32x4 $1, %xmm25, %ymm25, %ymm22 vmovdqu 16(%rsp), %ymm3 vinserti32x4 $1, %xmm3, %ymm3, %ymm24 movq %r9, %rcx movq %r10, %rdx .p2align 4, 0x90 .LBB1_20: vmovdqu64 32(%rcx), %ymm27 vmovdqu 64(%rcx), %ymm6 vmovdqu64 96(%rcx), %ymm28 vmovdqu64 128(%rcx), %ymm29 vmovdqu64 160(%rcx), %ymm30 vmovdqu64 192(%rcx), %ymm31 vmovdqu 224(%rcx), %ymm3 vpxorq (%rcx), %ymm26, %ymm25 addq $256, %rcx addq $-256, %rdx vpunpcklqdq %ymm3, %ymm13, %ymm26 vpunpckhqdq %ymm3, %ymm13, %ymm7 vpxorq %ymm26, %ymm7, %ymm7 vpclmulqdq $0, %ymm3, %ymm13, %ymm26 vpclmulqdq $1, %ymm7, %ymm7, %ymm7 vpclmulqdq $17, %ymm3, %ymm13, %ymm3 vpunpcklqdq %ymm31, %ymm18, %ymm8 vpunpckhqdq %ymm31, %ymm18, %ymm9 vpxor %ymm8, %ymm9, %ymm8 vpclmulqdq $0, %ymm31, %ymm18, %ymm9 vpxorq %ymm26, %ymm9, %ymm9 vpclmulqdq $1, %ymm8, %ymm8, %ymm8 vpxor %ymm7, %ymm8, %ymm7 vpclmulqdq $17, %ymm31, %ymm18, %ymm8 vpxor %ymm3, %ymm8, %ymm3 vpunpcklqdq %ymm30, %ymm19, %ymm8 vpunpckhqdq %ymm30, %ymm19, %ymm26 vpxorq %ymm8, %ymm26, %ymm8 vpclmulqdq $0, %ymm30, %ymm19, %ymm26 vpclmulqdq $1, %ymm8, %ymm8, %ymm8 vpclmulqdq $17, %ymm30, %ymm19, %ymm30 vpunpcklqdq %ymm29, %ymm16, %ymm31 vpunpckhqdq %ymm29, %ymm16, %ymm10 vpxorq %ymm31, %ymm10, %ymm10 vpclmulqdq $0, %ymm29, %ymm16, %ymm31 vpternlogq $150, %ymm26, %ymm9, %ymm31 vpclmulqdq $1, %ymm10, %ymm10, %ymm9 vpternlogq $150, %ymm8, %ymm7, %ymm9 vpclmulqdq $17, %ymm29, %ymm16, %ymm7 vpternlogq $150, %ymm30, %ymm3, %ymm7 vpunpcklqdq %ymm28, %ymm20, %ymm3 vpunpckhqdq %ymm28, %ymm20, %ymm8 vpxor %ymm3, %ymm8, %ymm3 vpclmulqdq $0, %ymm28, %ymm20, %ymm8 vpclmulqdq $1, %ymm3, %ymm3, %ymm3 vpclmulqdq $17, %ymm28, %ymm20, %ymm10 vpunpcklqdq %ymm6, %ymm22, %ymm26 vpunpckhqdq %ymm6, %ymm22, %ymm28 vpxorq %ymm26, %ymm28, %ymm26 vpclmulqdq $0, %ymm6, %ymm22, %ymm28 vpternlogq $150, %ymm8, %ymm31, %ymm28 vpclmulqdq $1, %ymm26, %ymm26, %ymm8 vpternlogq $150, %ymm3, %ymm9, %ymm8 vpclmulqdq $17, %ymm6, %ymm22, %ymm3 vpternlogq $150, %ymm10, %ymm7, %ymm3 vpunpcklqdq %ymm27, %ymm21, %ymm6 vpunpckhqdq %ymm27, %ymm21, %ymm7 vpxor %ymm6, %ymm7, %ymm6 vpclmulqdq $0, %ymm27, %ymm21, %ymm7 vpclmulqdq $1, %ymm6, %ymm6, %ymm6 vpclmulqdq $17, %ymm27, %ymm21, %ymm9 vpunpcklqdq %ymm25, %ymm24, %ymm10 vpunpckhqdq %ymm25, %ymm24, %ymm26 vpxorq %ymm10, %ymm26, %ymm10 vpclmulqdq $0, %ymm25, %ymm24, %ymm26 vpternlogq $150, %ymm7, %ymm28, %ymm26 vpclmulqdq $1, %ymm10, %ymm10, %ymm7 vpternlogq $150, %ymm6, %ymm8, %ymm7 vpclmulqdq $17, %ymm25, %ymm24, %ymm6 vpternlogq $150, %ymm9, %ymm3, %ymm6 vpternlogq $150, %ymm26, %ymm6, %ymm7 vpslldq $8, %ymm7, %ymm3 vpxorq %ymm3, %ymm26, %ymm3 vpsrldq $8, %ymm7, %ymm7 vpclmulqdq $16, %ymm15, %ymm3, %ymm8 vpshufd $78, %ymm3, %ymm3 vpxor %ymm3, %ymm8, %ymm3 vpclmulqdq $16, %ymm15, %ymm3, %ymm8 vpxor %ymm7, %ymm8, %ymm7 vpshufd $78, %ymm3, %ymm26 vpternlogq $150, %ymm7, %ymm6, %ymm26 cmpq $255, %rdx ja .LBB1_20 vmovapd %ymm12, %ymm7 vmovapd %ymm11, %ymm8 vmovupd 304(%rsp), %ymm9 vmovupd 272(%rsp), %ymm10 vmovupd 240(%rsp), %ymm11 vmovupd 208(%rsp), %ymm12 vmovupd 144(%rsp), %ymm27 vmovupd 112(%rsp), %ymm28 vmovupd 80(%rsp), %ymm29 vmovupd 48(%rsp), %ymm30 vmovups 176(%rsp), %ymm31 vmovupd -64(%rsp), %ymm24 vmovdqu -128(%rsp), %ymm6 vpbroadcastq .LCPI1_12(%rip), %xmm3 jmp .LBB1_23 .LBB1_22: movq %r10, %rdx movq %r9, %rcx .LBB1_23: vmovd 8(%rsi), %xmm13 vmovq (%rsi), %xmm16 vpternlogq $150, %xmm1, %xmm0, %xmm23 vaesenclast %xmm3, %xmm2, %xmm25 vpunpcklqdq %xmm4, %xmm5, %xmm0 cmpq $32, %rdx jb .LBB1_29 vinserti32x4 $1, %xmm17, %ymm17, %ymm1 leaq -32(%rdx), %rsi testb $32, %sil jne .LBB1_26 vpxorq (%rcx), %ymm26, %ymm2 addq $32, %rcx vpunpcklqdq %ymm2, %ymm1, %ymm3 vpunpckhqdq %ymm2, %ymm1, %ymm4 vpxor %ymm3, %ymm4, %ymm3 vpclmulqdq $0, %ymm2, %ymm1, %ymm4 vpclmulqdq $1, %ymm3, %ymm3, %ymm3 vpclmulqdq $17, %ymm2, %ymm1, %ymm2 vpternlogq $150, %ymm4, %ymm2, %ymm3 vpslldq $8, %ymm3, %ymm5 vpxor %ymm5, %ymm4, %ymm4 vpsrldq $8, %ymm3, %ymm3 vpclmulqdq $16, %ymm15, %ymm4, %ymm5 vpshufd $78, %ymm4, %ymm4 vpxor %ymm4, %ymm5, %ymm4 vpclmulqdq $16, %ymm15, %ymm4, %ymm5 vpxor %ymm3, %ymm5, %ymm3 vpshufd $78, %ymm4, %ymm26 vpternlogq $150, %ymm3, %ymm2, %ymm26 movq %rsi, %rdx .LBB1_26: cmpq $32, %rsi jb .LBB1_30 .p2align 4, 0x90 .LBB1_27: vpxorq (%rcx), %ymm26, %ymm2 vpunpcklqdq %ymm2, %ymm1, %ymm3 vpunpckhqdq %ymm2, %ymm1, %ymm4 vpxor %ymm3, %ymm4, %ymm3 vpclmulqdq $0, %ymm2, %ymm1, %ymm4 vpclmulqdq $1, %ymm3, %ymm3, %ymm3 vpclmulqdq $17, %ymm2, %ymm1, %ymm2 vpternlogq $150, %ymm4, %ymm2, %ymm3 vpslldq $8, %ymm3, %ymm5 vpxor %ymm5, %ymm4, %ymm4 vpsrldq $8, %ymm3, %ymm3 vpclmulqdq $16, %ymm15, %ymm4, %ymm5 vpshufd $78, %ymm4, %ymm4 vpxor %ymm4, %ymm5, %ymm4 vpclmulqdq $16, %ymm15, %ymm4, %ymm5 vpshufd $78, %ymm4, %ymm4 vpternlogq $150, %ymm3, %ymm5, %ymm4 addq $-64, %rdx vpternlogq $150, 32(%rcx), %ymm2, %ymm4 addq $64, %rcx vpunpcklqdq %ymm4, %ymm1, %ymm2 vpunpckhqdq %ymm4, %ymm1, %ymm3 vpxor %ymm2, %ymm3, %ymm2 vpclmulqdq $0, %ymm4, %ymm1, %ymm3 vpclmulqdq $1, %ymm2, %ymm2, %ymm2 vpclmulqdq $17, %ymm4, %ymm1, %ymm4 vpternlogq $150, %ymm3, %ymm4, %ymm2 vpslldq $8, %ymm2, %ymm5 vpxor %ymm5, %ymm3, %ymm3 vpsrldq $8, %ymm2, %ymm2 vpclmulqdq $16, %ymm15, %ymm3, %ymm5 vpshufd $78, %ymm3, %ymm3 vpxor %ymm3, %ymm5, %ymm3 vpclmulqdq $16, %ymm15, %ymm3, %ymm5 vpxor %ymm2, %ymm5, %ymm2 vpshufd $78, %ymm3, %ymm26 vpternlogq $150, %ymm2, %ymm4, %ymm26 cmpq $31, %rdx ja .LBB1_27 .LBB1_29: movq %rdx, %rsi .LBB1_30: movq 440(%rsp), %rdx vpunpcklqdq %xmm13, %xmm16, %xmm1 vpternlogq $150, %xmm23, %xmm30, %xmm25 vpsllq $3, %xmm0, %xmm0 testq %rsi, %rsi je .LBB1_34 movl $-1, %edi bzhil %esi, %edi, %edi kmovd %edi, %k1 vmovdqu8 (%rcx), %ymm2 {%k1} {z} vpxorq %ymm2, %ymm26, %ymm2 cmpq $17, %rsi jae .LBB1_33 vmovdqa64 %xmm14, %xmm17 .LBB1_33: vinserti32x4 $1, %xmm17, %ymm17, %ymm3 vpunpcklqdq %ymm2, %ymm3, %ymm4 vpunpckhqdq %ymm2, %ymm3, %ymm5 vpxor %ymm4, %ymm5, %ymm4 vpclmulqdq $0, %ymm2, %ymm3, %ymm5 vpclmulqdq $1, %ymm4, %ymm4, %ymm4 vpclmulqdq $17, %ymm2, %ymm3, %ymm2 vpternlogq $150, %ymm5, %ymm2, %ymm4 vpslldq $8, %ymm4, %ymm3 vpxor %ymm3, %ymm5, %ymm3 vpsrldq $8, %ymm4, %ymm4 vpclmulqdq $16, %ymm15, %ymm3, %ymm5 vpshufd $78, %ymm3, %ymm3 vpxor %ymm3, %ymm5, %ymm3 vpclmulqdq $16, %ymm15, %ymm3, %ymm5 vpxor %ymm4, %ymm5, %ymm4 vpshufd $78, %ymm3, %ymm26 vpternlogq $150, %ymm4, %ymm2, %ymm26 .LBB1_34: movq 424(%rsp), %rcx vextracti32x4 $1, %ymm26, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpxorq %xmm0, %xmm26, %xmm0 vpclmulqdq $0, %xmm0, %xmm14, %xmm2 vpclmulqdq $1, %xmm0, %xmm14, %xmm3 vpclmulqdq $16, %xmm0, %xmm14, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm14, %xmm0 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpbroadcastq .LCPI1_13(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpternlogq $150, %xmm0, %xmm1, %xmm4 vpshufd $78, %xmm2, %xmm0 vpternlogq $150, %xmm3, %xmm4, %xmm0 vpternlogq $108, .LCPI1_14(%rip), %xmm24, %xmm0 vaesenc %xmm31, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm11, %xmm0, %xmm0 vaesenc %xmm12, %xmm0, %xmm0 vmovdqu64 336(%rsp), %ymm26 vaesenc %xmm26, %xmm0, %xmm0 vaesenc %xmm27, %xmm0, %xmm0 vaesenc %xmm28, %xmm0, %xmm0 vaesenc %xmm29, %xmm0, %xmm0 vaesenc %xmm30, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenclast %xmm25, %xmm0, %xmm0 vmovdqu %xmm0, (%rdx) vpor .LCPI1_15(%rip), %xmm0, %xmm14 cmpq $256, %r10 jb .LBB1_38 vinserti32x4 $1, %xmm24, %ymm24, %ymm15 vinserti32x4 $1, %xmm31, %ymm31, %ymm17 vmovups %ymm7, 16(%rsp) vinserti32x4 $1, %xmm7, %ymm7, %ymm18 vmovups %ymm8, -16(%rsp) vinserti32x4 $1, %xmm8, %ymm8, %ymm19 vinserti32x4 $1, %xmm9, %ymm9, %ymm20 vinserti32x4 $1, %xmm10, %ymm10, %ymm21 vinserti32x4 $1, %xmm11, %ymm11, %ymm22 vinserti32x4 $1, %xmm12, %ymm12, %ymm23 vinserti32x4 $1, %xmm26, %ymm26, %ymm24 vmovdqa64 %ymm25, %ymm0 vinserti32x4 $1, %xmm27, %ymm27, %ymm25 vinserti32x4 $1, %xmm28, %ymm28, %ymm26 vinserti32x4 $1, %xmm29, %ymm29, %ymm27 vinserti32x4 $1, %xmm30, %ymm30, %ymm28 vinserti32x4 $1, %xmm6, %ymm6, %ymm29 vmovdqu %ymm0, -96(%rsp) vinserti32x4 $1, %xmm0, %ymm0, %ymm30 vpmovsxbq .LCPI1_25(%rip), %ymm1 vpmovsxbq .LCPI1_26(%rip), %ymm0 vpmovsxbq .LCPI1_27(%rip), %ymm13 vpmovsxbq .LCPI1_28(%rip), %ymm16 vpmovsxbq .LCPI1_29(%rip), %ymm2 vpmovsxbq .LCPI1_30(%rip), %ymm3 vpmovsxbq .LCPI1_31(%rip), %ymm4 vpmovsxbq .LCPI1_32(%rip), %xmm5 .p2align 4, 0x90 .LBB1_36: vpaddd .LCPI1_0(%rip), %xmm14, %xmm6 vinserti128 $1, %xmm6, %ymm14, %ymm6 vinserti128 $1, %xmm14, %ymm14, %ymm7 vpaddd %ymm1, %ymm7, %ymm8 vpaddd %ymm0, %ymm7, %ymm9 vpaddd %ymm7, %ymm13, %ymm10 vpaddd %ymm16, %ymm7, %ymm11 vpaddd %ymm2, %ymm7, %ymm12 vpaddd %ymm3, %ymm7, %ymm31 vpaddd %ymm4, %ymm7, %ymm7 vpxor %ymm6, %ymm15, %ymm6 vpxor %ymm8, %ymm15, %ymm8 vpxor %ymm9, %ymm15, %ymm9 vpxor %ymm10, %ymm15, %ymm10 vpxor %ymm11, %ymm15, %ymm11 vpxor %ymm12, %ymm15, %ymm12 vpxorq %ymm31, %ymm15, %ymm31 vpxor %ymm7, %ymm15, %ymm7 vaesenc %ymm17, %ymm6, %ymm6 vaesenc %ymm17, %ymm8, %ymm8 vaesenc %ymm17, %ymm9, %ymm9 vaesenc %ymm17, %ymm10, %ymm10 vaesenc %ymm17, %ymm11, %ymm11 vaesenc %ymm17, %ymm12, %ymm12 vaesenc %ymm17, %ymm31, %ymm31 vaesenc %ymm17, %ymm7, %ymm7 vaesenc %ymm18, %ymm6, %ymm6 vaesenc %ymm18, %ymm8, %ymm8 vaesenc %ymm18, %ymm9, %ymm9 vaesenc %ymm18, %ymm10, %ymm10 vaesenc %ymm18, %ymm11, %ymm11 vaesenc %ymm18, %ymm12, %ymm12 vaesenc %ymm18, %ymm31, %ymm31 vaesenc %ymm18, %ymm7, %ymm7 vaesenc %ymm19, %ymm6, %ymm6 vaesenc %ymm19, %ymm8, %ymm8 vaesenc %ymm19, %ymm9, %ymm9 vaesenc %ymm19, %ymm10, %ymm10 vaesenc %ymm19, %ymm11, %ymm11 vaesenc %ymm19, %ymm12, %ymm12 vaesenc %ymm19, %ymm31, %ymm31 vaesenc %ymm19, %ymm7, %ymm7 vaesenc %ymm20, %ymm6, %ymm6 vaesenc %ymm20, %ymm8, %ymm8 vaesenc %ymm20, %ymm9, %ymm9 vaesenc %ymm20, %ymm10, %ymm10 vaesenc %ymm20, %ymm11, %ymm11 vaesenc %ymm20, %ymm12, %ymm12 vaesenc %ymm20, %ymm31, %ymm31 vaesenc %ymm20, %ymm7, %ymm7 vaesenc %ymm21, %ymm6, %ymm6 vaesenc %ymm21, %ymm8, %ymm8 vaesenc %ymm21, %ymm9, %ymm9 vaesenc %ymm21, %ymm10, %ymm10 vaesenc %ymm21, %ymm11, %ymm11 vaesenc %ymm21, %ymm12, %ymm12 vaesenc %ymm21, %ymm31, %ymm31 vaesenc %ymm21, %ymm7, %ymm7 vaesenc %ymm22, %ymm6, %ymm6 vaesenc %ymm22, %ymm8, %ymm8 vaesenc %ymm22, %ymm9, %ymm9 vaesenc %ymm22, %ymm10, %ymm10 vaesenc %ymm22, %ymm11, %ymm11 vaesenc %ymm22, %ymm12, %ymm12 vaesenc %ymm22, %ymm31, %ymm31 vaesenc %ymm22, %ymm7, %ymm7 vaesenc %ymm23, %ymm6, %ymm6 vaesenc %ymm23, %ymm8, %ymm8 vaesenc %ymm23, %ymm9, %ymm9 vaesenc %ymm23, %ymm10, %ymm10 vaesenc %ymm23, %ymm11, %ymm11 vaesenc %ymm23, %ymm12, %ymm12 vaesenc %ymm23, %ymm31, %ymm31 vaesenc %ymm23, %ymm7, %ymm7 vaesenc %ymm24, %ymm6, %ymm6 vaesenc %ymm24, %ymm8, %ymm8 vaesenc %ymm24, %ymm9, %ymm9 vaesenc %ymm24, %ymm10, %ymm10 vaesenc %ymm24, %ymm11, %ymm11 vaesenc %ymm24, %ymm12, %ymm12 vaesenc %ymm24, %ymm31, %ymm31 vaesenc %ymm24, %ymm7, %ymm7 vaesenc %ymm25, %ymm6, %ymm6 vaesenc %ymm25, %ymm8, %ymm8 vaesenc %ymm25, %ymm9, %ymm9 vaesenc %ymm25, %ymm10, %ymm10 vaesenc %ymm25, %ymm11, %ymm11 vaesenc %ymm25, %ymm12, %ymm12 vaesenc %ymm25, %ymm31, %ymm31 vaesenc %ymm25, %ymm7, %ymm7 vaesenc %ymm26, %ymm6, %ymm6 vaesenc %ymm26, %ymm8, %ymm8 vaesenc %ymm26, %ymm9, %ymm9 vaesenc %ymm26, %ymm10, %ymm10 vaesenc %ymm26, %ymm11, %ymm11 vaesenc %ymm26, %ymm12, %ymm12 vaesenc %ymm26, %ymm31, %ymm31 vaesenc %ymm26, %ymm7, %ymm7 vaesenc %ymm27, %ymm6, %ymm6 vaesenc %ymm27, %ymm8, %ymm8 vaesenc %ymm27, %ymm9, %ymm9 vaesenc %ymm27, %ymm10, %ymm10 vaesenc %ymm27, %ymm11, %ymm11 vaesenc %ymm27, %ymm12, %ymm12 vaesenc %ymm27, %ymm31, %ymm31 vaesenc %ymm27, %ymm7, %ymm7 vaesenc %ymm28, %ymm6, %ymm6 vaesenc %ymm28, %ymm8, %ymm8 vaesenc %ymm28, %ymm9, %ymm9 vaesenc %ymm28, %ymm10, %ymm10 vaesenc %ymm28, %ymm11, %ymm11 vaesenc %ymm28, %ymm12, %ymm12 vaesenc %ymm28, %ymm31, %ymm31 vaesenc %ymm28, %ymm7, %ymm7 vaesenc %ymm29, %ymm6, %ymm6 vaesenc %ymm29, %ymm8, %ymm8 vaesenc %ymm29, %ymm9, %ymm9 vaesenc %ymm29, %ymm10, %ymm10 vaesenc %ymm29, %ymm11, %ymm11 vaesenc %ymm29, %ymm12, %ymm12 vaesenc %ymm29, %ymm31, %ymm31 vaesenc %ymm29, %ymm7, %ymm7 vaesenclast %ymm30, %ymm6, %ymm6 vaesenclast %ymm30, %ymm8, %ymm8 vaesenclast %ymm30, %ymm9, %ymm9 vaesenclast %ymm30, %ymm10, %ymm10 vaesenclast %ymm30, %ymm11, %ymm11 vaesenclast %ymm30, %ymm12, %ymm12 vaesenclast %ymm30, %ymm31, %ymm31 vaesenclast %ymm30, %ymm7, %ymm7 vpxor (%r9), %ymm6, %ymm6 vpxor 32(%r9), %ymm8, %ymm8 vpxor 64(%r9), %ymm9, %ymm9 vpxor 96(%r9), %ymm10, %ymm10 vpxor 128(%r9), %ymm11, %ymm11 vpxor 160(%r9), %ymm12, %ymm12 vpxorq 192(%r9), %ymm31, %ymm31 vpxor 224(%r9), %ymm7, %ymm7 vmovdqu %ymm6, (%rcx) vmovdqu %ymm8, 32(%rcx) vmovdqu %ymm9, 64(%rcx) vmovdqu %ymm10, 96(%rcx) vmovdqu %ymm11, 128(%rcx) vmovdqu %ymm12, 160(%rcx) vmovdqu64 %ymm31, 192(%rcx) vmovdqu %ymm7, 224(%rcx) addq $256, %r9 addq $256, %rcx addq $-256, %r10 vpaddd %xmm5, %xmm14, %xmm14 cmpq $255, %r10 ja .LBB1_36 vmovups 176(%rsp), %ymm31 vmovupd -64(%rsp), %ymm24 vmovupd 16(%rsp), %ymm7 vmovupd -16(%rsp), %ymm8 vmovupd 304(%rsp), %ymm9 vmovupd 272(%rsp), %ymm10 vmovupd 240(%rsp), %ymm11 vmovupd 208(%rsp), %ymm12 vmovdqu64 336(%rsp), %ymm26 vmovupd 144(%rsp), %ymm27 vmovupd 112(%rsp), %ymm28 vmovupd 80(%rsp), %ymm29 vmovupd 48(%rsp), %ymm30 vmovdqu -128(%rsp), %ymm6 vmovdqu64 -96(%rsp), %ymm25 .LBB1_38: cmpq $32, %r10 jb .LBB1_41 vinsertf32x4 $1, %xmm24, %ymm24, %ymm0 vinsertf32x4 $1, %xmm31, %ymm31, %ymm1 vinsertf128 $1, %xmm7, %ymm7, %ymm2 vinsertf128 $1, %xmm8, %ymm8, %ymm3 vinsertf128 $1, %xmm9, %ymm9, %ymm4 vinsertf128 $1, %xmm10, %ymm10, %ymm5 vinsertf128 $1, %xmm11, %ymm11, %ymm13 vinsertf128 $1, %xmm12, %ymm12, %ymm15 vinserti32x4 $1, %xmm26, %ymm26, %ymm16 vinsertf32x4 $1, %xmm27, %ymm27, %ymm17 vinsertf32x4 $1, %xmm28, %ymm28, %ymm18 vinsertf32x4 $1, %xmm29, %ymm29, %ymm19 vinsertf32x4 $1, %xmm30, %ymm30, %ymm20 vinserti32x4 $1, %xmm6, %ymm6, %ymm21 vinserti32x4 $1, %xmm25, %ymm25, %ymm22 leaq -32(%r10), %rsi testb $32, %sil jne .LBB1_42 leaq 32(%r9), %rdi leaq 32(%rcx), %rdx vpaddd .LCPI1_0(%rip), %xmm14, %xmm6 vpaddd .LCPI1_1(%rip), %xmm14, %xmm23 vinserti128 $1, %xmm6, %ymm14, %ymm6 vxorpd %ymm6, %ymm0, %ymm6 vaesenc %ymm1, %ymm6, %ymm6 vaesenc %ymm2, %ymm6, %ymm6 vaesenc %ymm3, %ymm6, %ymm6 vaesenc %ymm4, %ymm6, %ymm6 vaesenc %ymm5, %ymm6, %ymm6 vaesenc %ymm13, %ymm6, %ymm6 vaesenc %ymm15, %ymm6, %ymm6 vaesenc %ymm16, %ymm6, %ymm6 vaesenc %ymm17, %ymm6, %ymm6 vaesenc %ymm18, %ymm6, %ymm6 vaesenc %ymm19, %ymm6, %ymm6 vaesenc %ymm20, %ymm6, %ymm6 vaesenc %ymm21, %ymm6, %ymm6 vaesenclast %ymm22, %ymm6, %ymm6 vpxor (%r9), %ymm6, %ymm6 vmovdqu %ymm6, (%rcx) vmovdqu -128(%rsp), %ymm6 movq %rdx, %rcx vmovdqa64 %xmm23, %xmm14 movq %rsi, %r10 movq %rdi, %r9 cmpq $32, %rsi jae .LBB1_43 jmp .LBB1_46 .LBB1_41: movq %r9, %rdi movq %rcx, %rdx movq %r10, %rsi vmovdqa64 %xmm14, %xmm23 jmp .LBB1_46 .LBB1_42: cmpq $32, %rsi jb .LBB1_46 .LBB1_43: vmovdqu64 %ymm25, -96(%rsp) vpmovsxbq .LCPI1_33(%rip), %xmm23 vpmovsxbq .LCPI1_34(%rip), %xmm24 vpmovsxbq .LCPI1_25(%rip), %ymm25 .p2align 4, 0x90 .LBB1_44: vpaddd %xmm23, %xmm14, %xmm6 vinserti128 $1, %xmm6, %ymm14, %ymm6 vxorpd %ymm6, %ymm0, %ymm6 vaesenc %ymm1, %ymm6, %ymm6 vaesenc %ymm2, %ymm6, %ymm6 vaesenc %ymm3, %ymm6, %ymm6 vaesenc %ymm4, %ymm6, %ymm6 vaesenc %ymm5, %ymm6, %ymm6 vaesenc %ymm13, %ymm6, %ymm6 vaesenc %ymm15, %ymm6, %ymm6 vaesenc %ymm16, %ymm6, %ymm6 vaesenc %ymm17, %ymm6, %ymm6 vaesenc %ymm18, %ymm6, %ymm6 vaesenc %ymm19, %ymm6, %ymm6 vaesenc %ymm20, %ymm6, %ymm6 vaesenc %ymm21, %ymm6, %ymm6 vaesenclast %ymm22, %ymm6, %ymm6 vpxor (%r9), %ymm6, %ymm6 vmovdqu %ymm6, (%rcx) vinserti128 $1, %xmm14, %ymm14, %ymm6 vpaddd %ymm25, %ymm6, %ymm6 vxorpd %ymm6, %ymm0, %ymm6 vaesenc %ymm1, %ymm6, %ymm6 vaesenc %ymm2, %ymm6, %ymm6 vaesenc %ymm3, %ymm6, %ymm6 vaesenc %ymm4, %ymm6, %ymm6 vaesenc %ymm5, %ymm6, %ymm6 vaesenc %ymm13, %ymm6, %ymm6 vaesenc %ymm15, %ymm6, %ymm6 vaesenc %ymm16, %ymm6, %ymm6 vaesenc %ymm17, %ymm6, %ymm6 vaesenc %ymm18, %ymm6, %ymm6 vaesenc %ymm19, %ymm6, %ymm6 vaesenc %ymm20, %ymm6, %ymm6 vaesenc %ymm21, %ymm6, %ymm6 vaesenclast %ymm22, %ymm6, %ymm6 vpxor 32(%r9), %ymm6, %ymm6 addq $64, %r9 vmovdqu %ymm6, 32(%rcx) addq $64, %rcx addq $-64, %r10 vpaddd %xmm24, %xmm14, %xmm14 cmpq $31, %r10 ja .LBB1_44 movq %r9, %rdi movq %rcx, %rdx movq %r10, %rsi vmovdqa64 %xmm14, %xmm23 vmovupd -64(%rsp), %ymm24 vmovdqu -128(%rsp), %ymm6 vmovdqu64 -96(%rsp), %ymm25 .LBB1_46: testq %rsi, %rsi je .LBB1_48 movl $-1, %ecx bzhil %esi, %ecx, %ecx kmovd %ecx, %k1 vmovdqu8 (%rdi), %ymm0 {%k1} {z} vpaddd .LCPI1_0(%rip), %xmm23, %xmm1 vinserti32x4 $1, %xmm1, %ymm23, %ymm1 vinsertf32x4 $1, %xmm24, %ymm24, %ymm2 vxorpd %ymm1, %ymm2, %ymm1 vinsertf32x4 $1, %xmm31, %ymm31, %ymm2 vaesenc %ymm2, %ymm1, %ymm1 vinsertf128 $1, %xmm7, %ymm7, %ymm2 vaesenc %ymm2, %ymm1, %ymm1 vinsertf128 $1, %xmm8, %ymm8, %ymm2 vaesenc %ymm2, %ymm1, %ymm1 vinsertf128 $1, %xmm9, %ymm9, %ymm2 vaesenc %ymm2, %ymm1, %ymm1 vinsertf128 $1, %xmm10, %ymm10, %ymm2 vaesenc %ymm2, %ymm1, %ymm1 vinsertf128 $1, %xmm11, %ymm11, %ymm2 vaesenc %ymm2, %ymm1, %ymm1 vinsertf128 $1, %xmm12, %ymm12, %ymm2 vaesenc %ymm2, %ymm1, %ymm1 vinserti32x4 $1, %xmm26, %ymm26, %ymm2 vaesenc %ymm2, %ymm1, %ymm1 vinsertf32x4 $1, %xmm27, %ymm27, %ymm2 vaesenc %ymm2, %ymm1, %ymm1 vinsertf32x4 $1, %xmm28, %ymm28, %ymm2 vaesenc %ymm2, %ymm1, %ymm1 vinsertf32x4 $1, %xmm29, %ymm29, %ymm2 vaesenc %ymm2, %ymm1, %ymm1 vinsertf32x4 $1, %xmm30, %ymm30, %ymm2 vaesenc %ymm2, %ymm1, %ymm1 vinserti128 $1, %xmm6, %ymm6, %ymm2 vaesenc %ymm2, %ymm1, %ymm1 vinserti32x4 $1, %xmm25, %ymm25, %ymm2 vaesenclast %ymm2, %ymm1, %ymm1 vpxor %ymm1, %ymm0, %ymm0 vmovdqu8 %ymm0, (%rdx) {%k1} .LBB1_48: movzbl %al, %eax .LBB1_49: addq $400, %rsp .cfi_def_cfa_offset 16 popq %rbx .cfi_def_cfa_offset 8 vzeroupper retq .Lfunc_end1: .size haberdashery_aes256gcmsiv_tigerlake_encrypt, .Lfunc_end1-haberdashery_aes256gcmsiv_tigerlake_encrypt .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .long 1 .long 0 .long 0 .long 0 .LCPI2_1: .quad 2 .quad 0 .LCPI2_2: .long 3 .long 0 .long 0 .long 0 .LCPI2_3: .quad 4 .quad 0 .LCPI2_4: .long 5 .long 0 .long 0 .long 0 .LCPI2_5: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI2_14: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 128 .LCPI2_20: .long 12 .long 0 .long 0 .long 0 .LCPI2_21: .long 13 .long 0 .long 0 .long 0 .LCPI2_27: .quad -1 .quad 9223372036854775807 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI2_6: .quad 4294967297 .LCPI2_7: .quad 8589934594 .LCPI2_8: .quad 17179869188 .LCPI2_9: .quad 34359738376 .LCPI2_10: .quad 68719476752 .LCPI2_11: .quad 137438953504 .LCPI2_12: .quad 274877907008 .LCPI2_13: .quad -4467570830351532032 .section .rodata.cst32,"aM",@progbits,32 .p2align 5, 0x0 .LCPI2_15: .long 2 .long 0 .long 0 .long 0 .long 3 .long 0 .long 0 .long 0 .LCPI2_16: .long 4 .long 0 .long 0 .long 0 .long 5 .long 0 .long 0 .long 0 .LCPI2_17: .long 6 .long 0 .long 0 .long 0 .long 7 .long 0 .long 0 .long 0 .LCPI2_18: .long 8 .long 0 .long 0 .long 0 .long 9 .long 0 .long 0 .long 0 .LCPI2_19: .long 10 .long 0 .long 0 .long 0 .long 11 .long 0 .long 0 .long 0 .LCPI2_22: .long 14 .long 0 .long 0 .long 0 .long 15 .long 0 .long 0 .long 0 .LCPI2_23: .long 16 .long 0 .long 0 .long 0 .long 17 .long 0 .long 0 .long 0 .LCPI2_24: .long 18 .long 0 .long 0 .long 0 .long 19 .long 0 .long 0 .long 0 .LCPI2_25: .long 20 .long 0 .long 0 .long 0 .long 21 .long 0 .long 0 .long 0 .LCPI2_26: .long 22 .long 0 .long 0 .long 0 .long 23 .long 0 .long 0 .long 0 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI2_28: .byte 13 .byte 14 .byte 15 .byte 12 .section .rodata,"a",@progbits .LCPI2_29: .byte 1 .byte 0 .LCPI2_30: .byte 2 .byte 0 .section .text.haberdashery_aes256gcmsiv_tigerlake_decrypt,"ax",@progbits .globl haberdashery_aes256gcmsiv_tigerlake_decrypt .p2align 4, 0x90 .type haberdashery_aes256gcmsiv_tigerlake_decrypt,@function haberdashery_aes256gcmsiv_tigerlake_decrypt: .cfi_startproc subq $584, %rsp .cfi_def_cfa_offset 592 movq 592(%rsp), %r10 xorl %eax, %eax cmpq 624(%rsp), %r10 jne .LBB2_37 cmpq $12, %rdx jne .LBB2_37 movabsq $68719476737, %rdx cmpq %rdx, %r8 jae .LBB2_37 cmpq %rdx, %r10 jae .LBB2_37 cmpq $16, 608(%rsp) jb .LBB2_37 vmovsd 4(%rsi), %xmm0 vmovss (%rsi), %xmm1 vshufps $65, %xmm0, %xmm1, %xmm0 vxorps (%rdi), %xmm0, %xmm2 vxorps .LCPI2_0(%rip), %xmm2, %xmm3 vxorps .LCPI2_1(%rip), %xmm2, %xmm0 vxorps .LCPI2_2(%rip), %xmm2, %xmm4 vxorps .LCPI2_3(%rip), %xmm2, %xmm1 vxorps .LCPI2_4(%rip), %xmm2, %xmm5 vmovaps 16(%rdi), %xmm7 vmovdqa 32(%rdi), %xmm8 vmovdqa 48(%rdi), %xmm9 vmovaps 64(%rdi), %xmm6 #APP vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm5, %xmm5 #NO_APP #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 80(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 96(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 112(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 128(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 144(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 160(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 176(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 192(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 208(%rdi), %xmm6 #APP vaesenc %xmm6, %xmm2, %xmm2 vaesenc %xmm6, %xmm3, %xmm3 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm6, %xmm4, %xmm4 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm6, %xmm5, %xmm5 #NO_APP vmovaps 224(%rdi), %xmm6 #APP vaesenclast %xmm6, %xmm2, %xmm2 vaesenclast %xmm6, %xmm3, %xmm3 vaesenclast %xmm6, %xmm0, %xmm0 vaesenclast %xmm6, %xmm4, %xmm4 vaesenclast %xmm6, %xmm1, %xmm1 vaesenclast %xmm6, %xmm5, %xmm5 #NO_APP vpunpcklqdq %xmm3, %xmm2, %xmm26 vpunpcklqdq %xmm4, %xmm0, %xmm25 vpunpcklqdq %xmm5, %xmm1, %xmm23 vpslldq $4, %xmm25, %xmm3 vxorpd %xmm2, %xmm2, %xmm2 vpunpcklqdq %xmm0, %xmm2, %xmm4 vinsertps $55, %xmm0, %xmm0, %xmm5 vpternlogq $150, %xmm4, %xmm3, %xmm5 vpbroadcastd .LCPI2_28(%rip), %xmm0 vpbroadcastq .LCPI2_6(%rip), %xmm3 vpshufb %xmm0, %xmm23, %xmm4 vaesenclast %xmm3, %xmm4, %xmm28 vpternlogq $150, %xmm5, %xmm25, %xmm28 vpslldq $4, %xmm23, %xmm3 vpunpcklqdq %xmm1, %xmm2, %xmm4 vinsertps $55, %xmm1, %xmm0, %xmm1 vpternlogq $150, %xmm4, %xmm3, %xmm1 vpshufd $255, %xmm28, %xmm3 vaesenclast %xmm2, %xmm3, %xmm30 vpternlogq $150, %xmm1, %xmm23, %xmm30 vpslldq $4, %xmm28, %xmm1 vpslldq $8, %xmm28, %xmm3 vpslldq $12, %xmm28, %xmm4 vpternlogq $150, %xmm3, %xmm1, %xmm4 vpshufb %xmm0, %xmm30, %xmm1 vpbroadcastq .LCPI2_7(%rip), %xmm3 vaesenclast %xmm3, %xmm1, %xmm31 vpternlogq $150, %xmm4, %xmm28, %xmm31 vpslldq $4, %xmm30, %xmm1 vpslldq $8, %xmm30, %xmm3 vpslldq $12, %xmm30, %xmm4 vpternlogq $150, %xmm3, %xmm1, %xmm4 vpshufd $255, %xmm31, %xmm1 vaesenclast %xmm2, %xmm1, %xmm15 vpternlogq $150, %xmm4, %xmm30, %xmm15 vpslldq $4, %xmm31, %xmm1 vpslldq $8, %xmm31, %xmm3 vpslldq $12, %xmm31, %xmm4 vpternlogq $150, %xmm3, %xmm1, %xmm4 vpshufb %xmm0, %xmm15, %xmm1 vpbroadcastq .LCPI2_8(%rip), %xmm3 vaesenclast %xmm3, %xmm1, %xmm16 vpternlogq $150, %xmm4, %xmm31, %xmm16 vpslldq $4, %xmm15, %xmm1 vpslldq $8, %xmm15, %xmm3 vpslldq $12, %xmm15, %xmm4 vpternlogq $150, %xmm3, %xmm1, %xmm4 vpshufd $255, %xmm16, %xmm1 vaesenclast %xmm2, %xmm1, %xmm18 vpternlogq $150, %xmm4, %xmm15, %xmm18 vpslldq $4, %xmm16, %xmm1 vpslldq $8, %xmm16, %xmm3 vpslldq $12, %xmm16, %xmm4 vpternlogq $150, %xmm3, %xmm1, %xmm4 vpbroadcastq .LCPI2_9(%rip), %xmm1 vpshufb %xmm0, %xmm18, %xmm3 vaesenclast %xmm1, %xmm3, %xmm5 vpternlogq $150, %xmm4, %xmm16, %xmm5 vpslldq $4, %xmm18, %xmm1 vpslldq $8, %xmm18, %xmm3 vpslldq $12, %xmm18, %xmm4 vpternlogq $150, %xmm3, %xmm1, %xmm4 vpshufd $255, %xmm5, %xmm1 vaesenclast %xmm2, %xmm1, %xmm6 vpternlogq $150, %xmm4, %xmm18, %xmm6 vpslldq $4, %xmm5, %xmm1 vpslldq $8, %xmm5, %xmm3 vpslldq $12, %xmm5, %xmm4 vpternlogq $150, %xmm3, %xmm1, %xmm4 vpshufb %xmm0, %xmm6, %xmm1 vpbroadcastq .LCPI2_10(%rip), %xmm3 vaesenclast %xmm3, %xmm1, %xmm7 vmovups %ymm5, 32(%rsp) vpternlogq $150, %xmm4, %xmm5, %xmm7 vpslldq $4, %xmm6, %xmm1 vpslldq $8, %xmm6, %xmm3 vpslldq $12, %xmm6, %xmm4 vpternlogq $150, %xmm3, %xmm1, %xmm4 vpshufd $255, %xmm7, %xmm1 vaesenclast %xmm2, %xmm1, %xmm5 vmovups %ymm6, (%rsp) vpternlogq $150, %xmm4, %xmm6, %xmm5 vpslldq $4, %xmm7, %xmm1 vpslldq $8, %xmm7, %xmm3 vpslldq $12, %xmm7, %xmm4 vpternlogq $150, %xmm3, %xmm1, %xmm4 vpshufb %xmm0, %xmm5, %xmm1 vpbroadcastq .LCPI2_11(%rip), %xmm3 vaesenclast %xmm3, %xmm1, %xmm10 vmovups %ymm7, -32(%rsp) vpternlogq $150, %xmm4, %xmm7, %xmm10 vpslldq $4, %xmm5, %xmm1 vpslldq $8, %xmm5, %xmm3 vpslldq $12, %xmm5, %xmm4 vpternlogq $150, %xmm3, %xmm1, %xmm4 vpshufd $255, %xmm10, %xmm1 vaesenclast %xmm2, %xmm1, %xmm11 vmovups %ymm5, -64(%rsp) vpternlogq $150, %xmm4, %xmm5, %xmm11 vpclmulqdq $0, %xmm26, %xmm26, %xmm1 vpclmulqdq $17, %xmm26, %xmm26, %xmm2 vpbroadcastq .LCPI2_13(%rip), %ymm17 vpclmulqdq $16, %xmm17, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm17, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm22 vpternlogq $150, %xmm2, %xmm3, %xmm22 vpclmulqdq $0, %xmm22, %xmm22, %xmm1 vpclmulqdq $17, %xmm22, %xmm22, %xmm2 vpclmulqdq $16, %xmm17, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm17, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpternlogq $150, %xmm2, %xmm3, %xmm1 vinserti32x4 $1, %xmm1, %ymm22, %ymm2 vinserti32x4 $1, %xmm1, %ymm1, %ymm19 vpunpcklqdq %ymm2, %ymm19, %ymm1 vpunpckhqdq %ymm2, %ymm19, %ymm3 vpxor %ymm1, %ymm3, %ymm1 vpclmulqdq $0, %ymm2, %ymm19, %ymm3 vpclmulqdq $1, %ymm1, %ymm1, %ymm1 vpclmulqdq $17, %ymm2, %ymm19, %ymm2 vpternlogq $150, %ymm3, %ymm2, %ymm1 vpslldq $8, %ymm1, %ymm4 vpxor %ymm4, %ymm3, %ymm3 vpsrldq $8, %ymm1, %ymm1 vpclmulqdq $16, %ymm17, %ymm3, %ymm4 vpshufd $78, %ymm3, %ymm3 vpxor %ymm3, %ymm4, %ymm3 vpclmulqdq $16, %ymm17, %ymm3, %ymm4 vpxor %ymm1, %ymm4, %ymm1 vpshufd $78, %ymm3, %ymm3 vpternlogq $150, %ymm1, %ymm2, %ymm3 vextracti32x4 $1, %ymm3, %xmm29 vpunpcklqdq %ymm3, %ymm19, %ymm1 vpunpckhqdq %ymm3, %ymm19, %ymm2 vpxor %ymm1, %ymm2, %ymm1 vpclmulqdq $0, %ymm3, %ymm19, %ymm2 vpclmulqdq $1, %ymm1, %ymm1, %ymm1 vpclmulqdq $17, %ymm3, %ymm19, %ymm4 vpternlogq $150, %ymm2, %ymm4, %ymm1 vpslldq $8, %ymm1, %ymm5 vpxor %ymm5, %ymm2, %ymm2 vpsrldq $8, %ymm1, %ymm1 vpclmulqdq $16, %ymm17, %ymm2, %ymm5 vpshufd $78, %ymm2, %ymm2 vpxor %ymm2, %ymm5, %ymm2 vpclmulqdq $16, %ymm17, %ymm2, %ymm5 vpxor %ymm1, %ymm5, %ymm1 vpshufd $78, %ymm2, %ymm2 vpternlogq $150, %ymm1, %ymm4, %ymm2 vextracti32x4 $1, %ymm2, %xmm27 vpxord %xmm24, %xmm24, %xmm24 vpermq $68, %ymm3, %ymm21 vpermq $68, %ymm2, %ymm20 cmpq $192, %r8 vmovdqu %ymm10, -96(%rsp) vmovdqu %ymm11, -128(%rsp) jb .LBB2_9 vinserti32x4 $1, %xmm22, %ymm22, %ymm1 vinserti32x4 $1, %xmm29, %ymm29, %ymm2 vinserti32x4 $1, %xmm27, %ymm27, %ymm3 movq %r8, %rax .p2align 4, 0x90 .LBB2_7: vmovdqu 32(%rcx), %ymm4 vmovdqu 64(%rcx), %ymm5 vmovdqu 96(%rcx), %ymm6 vmovdqu 128(%rcx), %ymm7 vmovdqu 160(%rcx), %ymm8 vpxorq (%rcx), %ymm24, %ymm9 addq $192, %rcx addq $-192, %rax vpunpcklqdq %ymm8, %ymm1, %ymm10 vpunpckhqdq %ymm8, %ymm1, %ymm11 vpxor %ymm10, %ymm11, %ymm10 vpclmulqdq $0, %ymm8, %ymm1, %ymm11 vpclmulqdq $1, %ymm10, %ymm10, %ymm10 vpclmulqdq $17, %ymm8, %ymm1, %ymm8 vpunpcklqdq %ymm7, %ymm19, %ymm12 vpunpckhqdq %ymm7, %ymm19, %ymm13 vpxor %ymm12, %ymm13, %ymm12 vpclmulqdq $0, %ymm7, %ymm19, %ymm13 vpxor %ymm11, %ymm13, %ymm11 vpclmulqdq $1, %ymm12, %ymm12, %ymm12 vpxor %ymm10, %ymm12, %ymm10 vpclmulqdq $17, %ymm7, %ymm19, %ymm7 vpxor %ymm7, %ymm8, %ymm7 vpunpcklqdq %ymm6, %ymm21, %ymm8 vpunpckhqdq %ymm6, %ymm21, %ymm12 vpxor %ymm8, %ymm12, %ymm8 vpclmulqdq $0, %ymm6, %ymm21, %ymm12 vpclmulqdq $1, %ymm8, %ymm8, %ymm8 vpclmulqdq $17, %ymm6, %ymm21, %ymm6 vpunpcklqdq %ymm5, %ymm2, %ymm13 vpunpckhqdq %ymm5, %ymm2, %ymm14 vpxor %ymm13, %ymm14, %ymm13 vpclmulqdq $0, %ymm5, %ymm2, %ymm14 vpternlogq $150, %ymm12, %ymm11, %ymm14 vpclmulqdq $1, %ymm13, %ymm13, %ymm11 vpternlogq $150, %ymm8, %ymm10, %ymm11 vpclmulqdq $17, %ymm5, %ymm2, %ymm5 vpternlogq $150, %ymm6, %ymm7, %ymm5 vpunpcklqdq %ymm4, %ymm20, %ymm6 vpunpckhqdq %ymm4, %ymm20, %ymm7 vpxor %ymm6, %ymm7, %ymm6 vpclmulqdq $0, %ymm4, %ymm20, %ymm7 vpclmulqdq $1, %ymm6, %ymm6, %ymm6 vpclmulqdq $17, %ymm4, %ymm20, %ymm4 vpunpcklqdq %ymm9, %ymm3, %ymm8 vpunpckhqdq %ymm9, %ymm3, %ymm10 vpxor %ymm8, %ymm10, %ymm8 vpclmulqdq $0, %ymm9, %ymm3, %ymm10 vpternlogq $150, %ymm7, %ymm14, %ymm10 vpclmulqdq $1, %ymm8, %ymm8, %ymm7 vpternlogq $150, %ymm6, %ymm11, %ymm7 vpclmulqdq $17, %ymm9, %ymm3, %ymm6 vpternlogq $150, %ymm4, %ymm5, %ymm6 vpternlogq $150, %ymm10, %ymm6, %ymm7 vpslldq $8, %ymm7, %ymm4 vpxor %ymm4, %ymm10, %ymm4 vpsrldq $8, %ymm7, %ymm5 vpclmulqdq $16, %ymm17, %ymm4, %ymm7 vpshufd $78, %ymm4, %ymm4 vpxor %ymm4, %ymm7, %ymm4 vpclmulqdq $16, %ymm17, %ymm4, %ymm7 vpxor %ymm5, %ymm7, %ymm5 vpshufd $78, %ymm4, %ymm24 vpternlogq $150, %ymm5, %ymm6, %ymm24 cmpq $191, %rax ja .LBB2_7 vmovdqu -96(%rsp), %ymm10 vmovdqu -128(%rsp), %ymm11 jmp .LBB2_10 .LBB2_9: movq %r8, %rax .LBB2_10: vpslldq $4, %xmm10, %xmm2 vpslldq $8, %xmm10, %xmm3 vpslldq $12, %xmm10, %xmm1 vpshufb %xmm0, %xmm11, %xmm0 vpbroadcastq .LCPI2_12(%rip), %xmm4 movq 600(%rsp), %rdx cmpq $32, %rax jb .LBB2_16 vinserti32x4 $1, %xmm22, %ymm22, %ymm5 leaq -32(%rax), %rdi testb $32, %dil jne .LBB2_13 vpxorq (%rcx), %ymm24, %ymm6 addq $32, %rcx vpunpcklqdq %ymm6, %ymm5, %ymm7 vpunpckhqdq %ymm6, %ymm5, %ymm8 vpxor %ymm7, %ymm8, %ymm7 vpclmulqdq $0, %ymm6, %ymm5, %ymm8 vpclmulqdq $1, %ymm7, %ymm7, %ymm7 vpclmulqdq $17, %ymm6, %ymm5, %ymm6 vpternlogq $150, %ymm8, %ymm6, %ymm7 vpslldq $8, %ymm7, %ymm9 vpxor %ymm9, %ymm8, %ymm8 vpsrldq $8, %ymm7, %ymm7 vpclmulqdq $16, %ymm17, %ymm8, %ymm9 vpshufd $78, %ymm8, %ymm8 vpxor %ymm8, %ymm9, %ymm8 vpclmulqdq $16, %ymm17, %ymm8, %ymm9 vpxor %ymm7, %ymm9, %ymm7 vpshufd $78, %ymm8, %ymm24 vpternlogq $150, %ymm7, %ymm6, %ymm24 movq %rdi, %rax .LBB2_13: cmpq $32, %rdi jb .LBB2_17 .p2align 4, 0x90 .LBB2_14: vpxorq (%rcx), %ymm24, %ymm6 vpunpcklqdq %ymm6, %ymm5, %ymm7 vpunpckhqdq %ymm6, %ymm5, %ymm8 vpxor %ymm7, %ymm8, %ymm7 vpclmulqdq $0, %ymm6, %ymm5, %ymm8 vpclmulqdq $1, %ymm7, %ymm7, %ymm7 vpclmulqdq $17, %ymm6, %ymm5, %ymm6 vpternlogq $150, %ymm8, %ymm6, %ymm7 vpslldq $8, %ymm7, %ymm9 vpxor %ymm9, %ymm8, %ymm8 vpsrldq $8, %ymm7, %ymm7 vpclmulqdq $16, %ymm17, %ymm8, %ymm9 vpshufd $78, %ymm8, %ymm8 vpxor %ymm8, %ymm9, %ymm8 vpclmulqdq $16, %ymm17, %ymm8, %ymm9 vpshufd $78, %ymm8, %ymm8 vpternlogq $150, %ymm7, %ymm9, %ymm8 addq $-64, %rax vpternlogq $150, 32(%rcx), %ymm6, %ymm8 addq $64, %rcx vpunpcklqdq %ymm8, %ymm5, %ymm6 vpunpckhqdq %ymm8, %ymm5, %ymm7 vpxor %ymm6, %ymm7, %ymm6 vpclmulqdq $0, %ymm8, %ymm5, %ymm7 vpclmulqdq $1, %ymm6, %ymm6, %ymm6 vpclmulqdq $17, %ymm8, %ymm5, %ymm8 vpternlogq $150, %ymm7, %ymm8, %ymm6 vpslldq $8, %ymm6, %ymm9 vpxor %ymm7, %ymm9, %ymm7 vpsrldq $8, %ymm6, %ymm6 vpclmulqdq $16, %ymm17, %ymm7, %ymm9 vpshufd $78, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm7 vpclmulqdq $16, %ymm17, %ymm7, %ymm9 vpxor %ymm6, %ymm9, %ymm6 vpshufd $78, %ymm7, %ymm24 vpternlogq $150, %ymm6, %ymm8, %ymm24 cmpq $31, %rax ja .LBB2_14 .LBB2_16: movq %rax, %rdi .LBB2_17: vpternlogq $150, %xmm3, %xmm2, %xmm1 vaesenclast %xmm4, %xmm0, %xmm12 vmovdqu (%rdx), %xmm5 testq %rdi, %rdi vmovdqu64 %ymm22, 288(%rsp) je .LBB2_21 movl $-1, %eax bzhil %edi, %eax, %eax kmovd %eax, %k1 vmovdqu8 (%rcx), %ymm0 {%k1} {z} vpxorq %ymm0, %ymm24, %ymm0 vmovdqa64 %xmm22, %xmm2 cmpq $17, %rdi jae .LBB2_20 vmovdqa64 %xmm26, %xmm2 .LBB2_20: vinserti128 $1, %xmm2, %ymm2, %ymm2 vpunpcklqdq %ymm0, %ymm2, %ymm3 vpunpckhqdq %ymm0, %ymm2, %ymm4 vpxor %ymm3, %ymm4, %ymm3 vpclmulqdq $0, %ymm0, %ymm2, %ymm4 vpclmulqdq $1, %ymm3, %ymm3, %ymm3 vpclmulqdq $17, %ymm0, %ymm2, %ymm0 vpternlogq $150, %ymm4, %ymm0, %ymm3 vpslldq $8, %ymm3, %ymm2 vpxor %ymm2, %ymm4, %ymm2 vpsrldq $8, %ymm3, %ymm3 vpclmulqdq $16, %ymm17, %ymm2, %ymm4 vpshufd $78, %ymm2, %ymm2 vpxor %ymm2, %ymm4, %ymm2 vpclmulqdq $16, %ymm17, %ymm2, %ymm4 vpxor %ymm3, %ymm4, %ymm3 vpshufd $78, %ymm2, %ymm24 vpternlogq $150, %ymm3, %ymm0, %ymm24 .LBB2_21: vmovq %r10, %xmm2 vmovss 8(%rsi), %xmm0 vmovaps %xmm0, 128(%rsp) vmovsd (%rsi), %xmm0 vmovaps %xmm0, 112(%rsp) vmovq %r8, %xmm0 movq 616(%rsp), %rdx vpternlogq $150, %xmm1, %xmm10, %xmm12 vporq .LCPI2_14(%rip), %xmm5, %xmm22 cmpq $192, %r10 vmovups %ymm16, 256(%rsp) vmovups %ymm18, 224(%rsp) vmovups %ymm15, 160(%rsp) vmovdqa %xmm5, 144(%rsp) vmovdqu %ymm12, 192(%rsp) jb .LBB2_27 vmovdqa %xmm0, 64(%rsp) vmovdqa %xmm2, 80(%rsp) vmovaps %xmm26, 96(%rsp) leaq 192(%r9), %rcx leaq 192(%rdx), %rax addq $-192, %r10 vpaddd .LCPI2_0(%rip), %xmm22, %xmm0 vinserti32x4 $1, %xmm22, %ymm22, %ymm1 vpaddd .LCPI2_15(%rip), %ymm1, %ymm2 vpaddd .LCPI2_16(%rip), %ymm1, %ymm3 vpaddd .LCPI2_17(%rip), %ymm1, %ymm4 vpaddd .LCPI2_18(%rip), %ymm1, %ymm5 vpaddd .LCPI2_19(%rip), %ymm1, %ymm1 vinserti32x4 $1, %xmm0, %ymm22, %ymm0 vmovups %ymm25, 512(%rsp) vmovdqu64 %ymm27, 320(%rsp) vmovdqa64 %ymm29, %ymm27 vinserti32x4 $1, %xmm25, %ymm25, %ymm29 vpxorq %ymm0, %ymm29, %ymm0 vpxorq %ymm2, %ymm29, %ymm2 vpxorq %ymm3, %ymm29, %ymm3 vpxorq %ymm4, %ymm29, %ymm4 vpxorq %ymm5, %ymm29, %ymm5 vpxorq %ymm1, %ymm29, %ymm1 vmovups %ymm23, 480(%rsp) vmovdqa64 %ymm30, %ymm6 vinserti32x4 $1, %xmm23, %ymm23, %ymm30 vaesenc %ymm30, %ymm0, %ymm0 vaesenc %ymm30, %ymm2, %ymm2 vaesenc %ymm30, %ymm3, %ymm3 vaesenc %ymm30, %ymm4, %ymm4 vaesenc %ymm30, %ymm5, %ymm5 vaesenc %ymm30, %ymm1, %ymm1 vmovups %ymm28, 448(%rsp) vmovdqa64 %ymm31, %ymm7 vinserti32x4 $1, %xmm28, %ymm28, %ymm31 vaesenc %ymm31, %ymm0, %ymm0 vaesenc %ymm31, %ymm2, %ymm2 vaesenc %ymm31, %ymm3, %ymm3 vaesenc %ymm31, %ymm4, %ymm4 vaesenc %ymm31, %ymm5, %ymm5 vaesenc %ymm31, %ymm1, %ymm1 vmovdqu %ymm6, 416(%rsp) vinserti32x4 $1, %xmm6, %ymm6, %ymm23 vaesenc %ymm23, %ymm0, %ymm0 vaesenc %ymm23, %ymm2, %ymm2 vaesenc %ymm23, %ymm3, %ymm3 vaesenc %ymm23, %ymm4, %ymm4 vaesenc %ymm23, %ymm5, %ymm5 vaesenc %ymm23, %ymm1, %ymm1 vmovdqu %ymm7, 384(%rsp) vinserti32x4 $1, %xmm7, %ymm7, %ymm17 vaesenc %ymm17, %ymm0, %ymm0 vaesenc %ymm17, %ymm2, %ymm2 vaesenc %ymm17, %ymm3, %ymm3 vaesenc %ymm17, %ymm4, %ymm4 vaesenc %ymm17, %ymm5, %ymm5 vaesenc %ymm17, %ymm1, %ymm1 vinserti32x4 $1, %xmm15, %ymm15, %ymm25 vaesenc %ymm25, %ymm0, %ymm0 vaesenc %ymm25, %ymm2, %ymm2 vaesenc %ymm25, %ymm3, %ymm3 vaesenc %ymm25, %ymm4, %ymm4 vaesenc %ymm25, %ymm5, %ymm5 vaesenc %ymm25, %ymm1, %ymm1 vinserti32x4 $1, %xmm16, %ymm16, %ymm26 vaesenc %ymm26, %ymm0, %ymm0 vaesenc %ymm26, %ymm2, %ymm2 vaesenc %ymm26, %ymm3, %ymm3 vaesenc %ymm26, %ymm4, %ymm4 vaesenc %ymm26, %ymm5, %ymm5 vaesenc %ymm26, %ymm1, %ymm1 vinserti32x4 $1, %xmm18, %ymm18, %ymm28 vaesenc %ymm28, %ymm0, %ymm0 vaesenc %ymm28, %ymm2, %ymm2 vaesenc %ymm28, %ymm3, %ymm3 vaesenc %ymm28, %ymm4, %ymm4 vaesenc %ymm28, %ymm5, %ymm5 vaesenc %ymm28, %ymm1, %ymm1 vmovdqu 32(%rsp), %ymm6 vinserti128 $1, %xmm6, %ymm6, %ymm14 vaesenc %ymm14, %ymm0, %ymm6 vaesenc %ymm14, %ymm2, %ymm2 vaesenc %ymm14, %ymm3, %ymm3 vaesenc %ymm14, %ymm4, %ymm4 vaesenc %ymm14, %ymm5, %ymm5 vaesenc %ymm14, %ymm1, %ymm1 vmovdqu (%rsp), %ymm0 vinserti128 $1, %xmm0, %ymm0, %ymm0 vaesenc %ymm0, %ymm6, %ymm6 vaesenc %ymm0, %ymm2, %ymm2 vaesenc %ymm0, %ymm3, %ymm7 vaesenc %ymm0, %ymm4, %ymm4 vaesenc %ymm0, %ymm5, %ymm5 vaesenc %ymm0, %ymm1, %ymm1 vmovdqu -32(%rsp), %ymm3 vinserti128 $1, %xmm3, %ymm3, %ymm3 vaesenc %ymm3, %ymm6, %ymm6 vaesenc %ymm3, %ymm2, %ymm8 vaesenc %ymm3, %ymm7, %ymm7 vaesenc %ymm3, %ymm4, %ymm4 vaesenc %ymm3, %ymm5, %ymm5 vaesenc %ymm3, %ymm1, %ymm1 vmovdqu -64(%rsp), %ymm2 vinserti128 $1, %xmm2, %ymm2, %ymm2 vaesenc %ymm2, %ymm6, %ymm6 vaesenc %ymm2, %ymm8, %ymm8 vaesenc %ymm2, %ymm7, %ymm7 vaesenc %ymm2, %ymm4, %ymm9 vaesenc %ymm2, %ymm5, %ymm5 vaesenc %ymm2, %ymm1, %ymm1 vinserti128 $1, %xmm10, %ymm10, %ymm4 vaesenc %ymm4, %ymm6, %ymm6 vaesenc %ymm4, %ymm8, %ymm8 vaesenc %ymm4, %ymm7, %ymm7 vaesenc %ymm4, %ymm9, %ymm9 vaesenc %ymm4, %ymm5, %ymm10 vaesenc %ymm4, %ymm1, %ymm1 vinserti128 $1, %xmm11, %ymm11, %ymm5 vaesenc %ymm5, %ymm6, %ymm11 vaesenc %ymm5, %ymm8, %ymm8 vaesenc %ymm5, %ymm7, %ymm7 vaesenc %ymm5, %ymm9, %ymm9 vaesenc %ymm5, %ymm10, %ymm10 vaesenc %ymm5, %ymm1, %ymm1 vinserti128 $1, %xmm12, %ymm12, %ymm6 vaesenclast %ymm6, %ymm11, %ymm11 vaesenclast %ymm6, %ymm8, %ymm8 vaesenclast %ymm6, %ymm7, %ymm7 vaesenclast %ymm6, %ymm9, %ymm9 vaesenclast %ymm6, %ymm10, %ymm12 vaesenclast %ymm6, %ymm1, %ymm1 vpxor (%r9), %ymm11, %ymm10 vpxor 32(%r9), %ymm8, %ymm13 vpxor 64(%r9), %ymm7, %ymm8 vpxor 96(%r9), %ymm9, %ymm9 vpxorq 128(%r9), %ymm12, %ymm16 vpxor 160(%r9), %ymm1, %ymm11 vmovdqu %ymm10, (%rdx) vmovdqu %ymm13, 32(%rdx) vmovdqu %ymm8, 64(%rdx) vmovdqu %ymm9, 96(%rdx) vmovdqu64 %ymm16, 128(%rdx) vmovdqu %ymm11, 160(%rdx) vpaddd .LCPI2_20(%rip), %xmm22, %xmm7 vmovdqu 288(%rsp), %ymm1 vinserti32x4 $1, %xmm1, %ymm1, %ymm18 vinserti32x4 $1, %xmm27, %ymm27, %ymm12 vmovdqu 320(%rsp), %ymm1 vinserti32x4 $1, %xmm1, %ymm1, %ymm27 cmpq $192, %r10 jb .LBB2_26 vmovdqu %ymm12, 352(%rsp) vmovdqu %ymm6, 544(%rsp) .p2align 4, 0x90 .LBB2_24: vmovdqa %xmm7, 320(%rsp) vpclmulqdq $0, %ymm11, %ymm18, %ymm12 vpclmulqdq $17, %ymm11, %ymm18, %ymm15 vmovdqa64 %ymm29, %ymm7 vmovdqa64 %ymm20, %ymm29 vmovdqa64 %ymm18, %ymm20 vmovdqa64 %ymm27, %ymm18 vpclmulqdq $0, %ymm16, %ymm19, %ymm27 vpxorq %ymm12, %ymm27, %ymm12 vpclmulqdq $0, %ymm9, %ymm21, %ymm27 vmovdqa %ymm5, %ymm6 vmovdqa %ymm4, %ymm5 vmovdqa %ymm2, %ymm4 vmovdqa %ymm3, %ymm2 vmovdqa %ymm0, %ymm3 vmovdqa %ymm14, %ymm0 vmovdqa64 %ymm28, %ymm14 vmovdqa64 %ymm26, %ymm28 vmovdqu64 352(%rsp), %ymm26 vpclmulqdq $0, %ymm8, %ymm26, %ymm1 vpternlogq $150, %ymm27, %ymm12, %ymm1 vpclmulqdq $17, %ymm16, %ymm19, %ymm12 vpclmulqdq $17, %ymm9, %ymm21, %ymm27 vpxor %ymm15, %ymm12, %ymm12 vpclmulqdq $17, %ymm8, %ymm26, %ymm15 vpternlogq $150, %ymm27, %ymm12, %ymm15 vmovdqa64 %ymm18, %ymm27 vmovdqa64 %ymm20, %ymm18 vmovdqa64 %ymm29, %ymm20 vmovdqa64 %ymm7, %ymm29 vpxorq %ymm24, %ymm10, %ymm10 vpunpcklqdq %ymm11, %ymm18, %ymm12 vpunpckhqdq %ymm11, %ymm18, %ymm11 vpxor %ymm12, %ymm11, %ymm11 vpclmulqdq $1, %ymm11, %ymm11, %ymm11 vpunpcklqdq %ymm16, %ymm19, %ymm12 vpunpckhqdq %ymm16, %ymm19, %ymm16 vpxorq %ymm12, %ymm16, %ymm12 vpunpcklqdq %ymm9, %ymm21, %ymm16 vpclmulqdq $1, %ymm12, %ymm12, %ymm12 vpunpckhqdq %ymm9, %ymm21, %ymm9 vpxorq %ymm16, %ymm9, %ymm9 vpunpcklqdq %ymm8, %ymm26, %ymm16 vpunpckhqdq %ymm8, %ymm26, %ymm8 vmovdqa64 %ymm28, %ymm26 vmovdqa64 %ymm14, %ymm28 vmovdqa %ymm0, %ymm14 vmovdqa %ymm3, %ymm0 vmovdqa %ymm2, %ymm3 vmovdqa %ymm4, %ymm2 vmovdqa %ymm5, %ymm4 vmovdqa %ymm6, %ymm5 vmovdqu 544(%rsp), %ymm6 vpxorq %ymm16, %ymm8, %ymm8 vpxor %ymm11, %ymm12, %ymm11 vpunpcklqdq %ymm13, %ymm20, %ymm12 vpunpckhqdq %ymm13, %ymm20, %ymm16 vpxorq %ymm12, %ymm16, %ymm12 vmovaps 320(%rsp), %xmm7 vpclmulqdq $1, %ymm9, %ymm9, %ymm9 vpclmulqdq $1, %ymm8, %ymm8, %ymm8 vpternlogq $150, %ymm9, %ymm11, %ymm8 vpclmulqdq $0, %ymm13, %ymm20, %ymm9 vpclmulqdq $17, %ymm13, %ymm20, %ymm11 vpclmulqdq $0, %ymm10, %ymm27, %ymm13 vpternlogq $150, %ymm9, %ymm1, %ymm13 vpunpcklqdq %ymm10, %ymm27, %ymm1 vpclmulqdq $1, %ymm12, %ymm12, %ymm9 vpunpckhqdq %ymm10, %ymm27, %ymm12 vpxor %ymm1, %ymm12, %ymm1 vpclmulqdq $1, %ymm1, %ymm1, %ymm1 vpclmulqdq $17, %ymm10, %ymm27, %ymm12 vpternlogq $150, %ymm11, %ymm15, %ymm12 vpternlogq $150, %ymm9, %ymm8, %ymm1 vpternlogq $150, %ymm13, %ymm12, %ymm1 vpslldq $8, %ymm1, %ymm8 vpxor %ymm8, %ymm13, %ymm8 vpsrldq $8, %ymm1, %ymm1 vpbroadcastq .LCPI2_13(%rip), %ymm10 vpclmulqdq $16, %ymm10, %ymm8, %ymm9 vpshufd $78, %ymm8, %ymm8 vpxorq %ymm8, %ymm9, %ymm24 vpclmulqdq $16, %ymm10, %ymm24, %ymm8 vpaddd .LCPI2_21(%rip), %xmm22, %xmm9 vinserti128 $1, %xmm9, %ymm7, %ymm9 vinserti32x4 $1, %xmm22, %ymm22, %ymm10 vpxorq %ymm1, %ymm8, %ymm22 vpaddd .LCPI2_22(%rip), %ymm10, %ymm1 vpaddd .LCPI2_23(%rip), %ymm10, %ymm8 vpaddd .LCPI2_24(%rip), %ymm10, %ymm11 vpaddd .LCPI2_25(%rip), %ymm10, %ymm13 vpaddd .LCPI2_26(%rip), %ymm10, %ymm10 vpxorq %ymm9, %ymm29, %ymm9 vpxorq %ymm1, %ymm29, %ymm1 vpxorq %ymm8, %ymm29, %ymm8 vpxorq %ymm11, %ymm29, %ymm11 vpxorq %ymm13, %ymm29, %ymm13 vpxorq %ymm10, %ymm29, %ymm10 vaesenc %ymm30, %ymm9, %ymm9 vaesenc %ymm30, %ymm1, %ymm1 vaesenc %ymm30, %ymm8, %ymm8 vaesenc %ymm30, %ymm11, %ymm11 vaesenc %ymm30, %ymm13, %ymm13 vaesenc %ymm30, %ymm10, %ymm10 vaesenc %ymm31, %ymm9, %ymm9 vaesenc %ymm31, %ymm1, %ymm1 vaesenc %ymm31, %ymm8, %ymm8 vaesenc %ymm31, %ymm11, %ymm11 vaesenc %ymm31, %ymm13, %ymm13 vaesenc %ymm31, %ymm10, %ymm10 vaesenc %ymm23, %ymm9, %ymm9 vaesenc %ymm23, %ymm1, %ymm1 vaesenc %ymm23, %ymm8, %ymm8 vaesenc %ymm23, %ymm11, %ymm11 vaesenc %ymm23, %ymm13, %ymm13 vaesenc %ymm23, %ymm10, %ymm10 vaesenc %ymm17, %ymm9, %ymm9 vaesenc %ymm17, %ymm1, %ymm1 vaesenc %ymm17, %ymm8, %ymm8 vaesenc %ymm17, %ymm11, %ymm11 vaesenc %ymm17, %ymm13, %ymm13 vaesenc %ymm17, %ymm10, %ymm10 vaesenc %ymm25, %ymm9, %ymm9 vaesenc %ymm25, %ymm1, %ymm1 vaesenc %ymm25, %ymm8, %ymm8 vaesenc %ymm25, %ymm11, %ymm11 vaesenc %ymm25, %ymm13, %ymm13 vaesenc %ymm25, %ymm10, %ymm10 vaesenc %ymm26, %ymm9, %ymm9 vaesenc %ymm26, %ymm1, %ymm1 vaesenc %ymm26, %ymm8, %ymm8 vaesenc %ymm26, %ymm11, %ymm11 vaesenc %ymm26, %ymm13, %ymm13 vaesenc %ymm26, %ymm10, %ymm10 vaesenc %ymm28, %ymm9, %ymm9 vaesenc %ymm28, %ymm1, %ymm1 vaesenc %ymm28, %ymm8, %ymm8 vaesenc %ymm28, %ymm11, %ymm11 vaesenc %ymm28, %ymm13, %ymm13 vaesenc %ymm28, %ymm10, %ymm10 vaesenc %ymm14, %ymm9, %ymm9 vaesenc %ymm14, %ymm1, %ymm1 vaesenc %ymm14, %ymm8, %ymm8 vaesenc %ymm14, %ymm11, %ymm11 vaesenc %ymm14, %ymm13, %ymm13 vaesenc %ymm14, %ymm10, %ymm10 vaesenc %ymm0, %ymm9, %ymm9 vaesenc %ymm0, %ymm1, %ymm1 vaesenc %ymm0, %ymm8, %ymm8 vaesenc %ymm0, %ymm11, %ymm11 vaesenc %ymm0, %ymm13, %ymm13 vaesenc %ymm0, %ymm10, %ymm10 vaesenc %ymm3, %ymm9, %ymm9 vaesenc %ymm3, %ymm1, %ymm1 vaesenc %ymm3, %ymm8, %ymm8 vaesenc %ymm3, %ymm11, %ymm11 vaesenc %ymm3, %ymm13, %ymm13 vaesenc %ymm3, %ymm10, %ymm10 vaesenc %ymm2, %ymm9, %ymm9 vaesenc %ymm2, %ymm1, %ymm1 vaesenc %ymm2, %ymm8, %ymm8 vaesenc %ymm2, %ymm11, %ymm11 vaesenc %ymm2, %ymm13, %ymm13 vaesenc %ymm2, %ymm10, %ymm10 vaesenc %ymm4, %ymm9, %ymm9 vaesenc %ymm4, %ymm1, %ymm1 vaesenc %ymm4, %ymm8, %ymm8 vaesenc %ymm4, %ymm11, %ymm11 vaesenc %ymm4, %ymm13, %ymm13 vaesenc %ymm4, %ymm10, %ymm10 vaesenc %ymm5, %ymm9, %ymm9 vaesenc %ymm5, %ymm1, %ymm1 vaesenc %ymm5, %ymm8, %ymm8 vaesenc %ymm5, %ymm11, %ymm11 vaesenc %ymm5, %ymm13, %ymm13 vaesenc %ymm5, %ymm10, %ymm15 vaesenclast %ymm6, %ymm9, %ymm9 vaesenclast %ymm6, %ymm1, %ymm1 vaesenclast %ymm6, %ymm8, %ymm8 vaesenclast %ymm6, %ymm11, %ymm11 vaesenclast %ymm6, %ymm13, %ymm16 vpxor (%rcx), %ymm9, %ymm10 vpxor 32(%rcx), %ymm1, %ymm13 vpxor 64(%rcx), %ymm8, %ymm8 vpxor 96(%rcx), %ymm11, %ymm9 vaesenclast %ymm6, %ymm15, %ymm1 vpxorq 128(%rcx), %ymm16, %ymm16 vpxor 160(%rcx), %ymm1, %ymm11 vpshufd $78, %ymm24, %ymm24 vpternlogq $150, %ymm22, %ymm12, %ymm24 addq $192, %rcx vmovdqu %ymm10, (%rax) vmovdqu %ymm13, 32(%rax) vmovdqu %ymm8, 64(%rax) vmovdqu %ymm9, 96(%rax) vmovdqu64 %ymm16, 128(%rax) vmovdqu %ymm11, 160(%rax) addq $192, %rax addq $-192, %r10 vmovdqa64 %xmm7, %xmm22 vpaddd .LCPI2_20(%rip), %xmm7, %xmm7 cmpq $191, %r10 ja .LBB2_24 vmovupd 160(%rsp), %ymm15 vmovdqu 352(%rsp), %ymm12 .LBB2_26: vpxorq %ymm24, %ymm10, %ymm0 vpunpcklqdq %ymm11, %ymm18, %ymm2 vpunpckhqdq %ymm11, %ymm18, %ymm3 vpxor %ymm2, %ymm3, %ymm2 vpclmulqdq $0, %ymm11, %ymm18, %ymm3 vpclmulqdq $1, %ymm2, %ymm2, %ymm2 vpclmulqdq $17, %ymm11, %ymm18, %ymm4 vpunpcklqdq %ymm16, %ymm19, %ymm5 vpunpckhqdq %ymm16, %ymm19, %ymm6 vpxor %ymm5, %ymm6, %ymm5 vpclmulqdq $0, %ymm16, %ymm19, %ymm6 vpxor %ymm3, %ymm6, %ymm3 vpclmulqdq $1, %ymm5, %ymm5, %ymm5 vpxor %ymm2, %ymm5, %ymm2 vpclmulqdq $17, %ymm16, %ymm19, %ymm5 vpxor %ymm4, %ymm5, %ymm4 vpunpcklqdq %ymm9, %ymm21, %ymm5 vpunpckhqdq %ymm9, %ymm21, %ymm6 vpxor %ymm5, %ymm6, %ymm5 vpclmulqdq $0, %ymm9, %ymm21, %ymm6 vpclmulqdq $1, %ymm5, %ymm5, %ymm5 vpclmulqdq $17, %ymm9, %ymm21, %ymm9 vpunpcklqdq %ymm8, %ymm12, %ymm10 vpunpckhqdq %ymm8, %ymm12, %ymm11 vpxor %ymm10, %ymm11, %ymm10 vpclmulqdq $0, %ymm8, %ymm12, %ymm11 vpternlogq $150, %ymm6, %ymm3, %ymm11 vpclmulqdq $1, %ymm10, %ymm10, %ymm3 vpternlogq $150, %ymm5, %ymm2, %ymm3 vpclmulqdq $17, %ymm8, %ymm12, %ymm1 vpternlogq $150, %ymm9, %ymm4, %ymm1 vpunpcklqdq %ymm13, %ymm20, %ymm2 vpunpckhqdq %ymm13, %ymm20, %ymm4 vpxor %ymm2, %ymm4, %ymm2 vpclmulqdq $0, %ymm13, %ymm20, %ymm4 vpclmulqdq $1, %ymm2, %ymm2, %ymm2 vpclmulqdq $17, %ymm13, %ymm20, %ymm5 vpunpcklqdq %ymm0, %ymm27, %ymm6 vpunpckhqdq %ymm0, %ymm27, %ymm8 vpxor %ymm6, %ymm8, %ymm6 vpclmulqdq $0, %ymm0, %ymm27, %ymm8 vpternlogq $150, %ymm4, %ymm11, %ymm8 vpclmulqdq $1, %ymm6, %ymm6, %ymm4 vpternlogq $150, %ymm2, %ymm3, %ymm4 vpclmulqdq $17, %ymm0, %ymm27, %ymm0 vpternlogq $150, %ymm5, %ymm1, %ymm0 vpternlogq $150, %ymm8, %ymm0, %ymm4 vpslldq $8, %ymm4, %ymm1 vpxor %ymm1, %ymm8, %ymm1 vpsrldq $8, %ymm4, %ymm2 vpbroadcastq .LCPI2_13(%rip), %ymm4 vpclmulqdq $16, %ymm4, %ymm1, %ymm3 vpshufd $78, %ymm1, %ymm1 vpxor %ymm1, %ymm3, %ymm1 vpclmulqdq $16, %ymm4, %ymm1, %ymm3 vpxor %ymm2, %ymm3, %ymm2 vpshufd $78, %ymm1, %ymm24 vpternlogq $150, %ymm2, %ymm0, %ymm24 movq %rax, %rdx movq %rcx, %r9 vmovdqa64 %xmm7, %xmm22 vmovupd 512(%rsp), %ymm25 vmovupd 480(%rsp), %ymm23 vmovupd 448(%rsp), %ymm28 vmovapd 96(%rsp), %xmm26 vmovupd 416(%rsp), %ymm30 vmovupd 384(%rsp), %ymm31 vmovupd 256(%rsp), %ymm16 vmovupd 224(%rsp), %ymm18 vmovdqa 80(%rsp), %xmm2 vmovdqa 64(%rsp), %xmm0 .LBB2_27: vmovapd %xmm26, %xmm27 vpunpcklqdq %xmm2, %xmm0, %xmm0 cmpq $32, %r10 jb .LBB2_30 vmovapd %ymm25, %ymm29 vinsertf32x4 $1, %xmm25, %ymm25, %ymm1 vmovapd %ymm23, %ymm25 vinsertf32x4 $1, %xmm23, %ymm23, %ymm2 vinsertf32x4 $1, %xmm28, %ymm28, %ymm3 vinsertf32x4 $1, %xmm30, %ymm30, %ymm4 vinsertf32x4 $1, %xmm31, %ymm31, %ymm5 vinsertf128 $1, %xmm15, %ymm15, %ymm6 vinsertf32x4 $1, %xmm16, %ymm16, %ymm7 vinsertf32x4 $1, %xmm18, %ymm18, %ymm8 vmovdqu 32(%rsp), %ymm9 vinserti128 $1, %xmm9, %ymm9, %ymm9 vmovdqu (%rsp), %ymm10 vinserti128 $1, %xmm10, %ymm10, %ymm10 vmovdqu -32(%rsp), %ymm11 vinserti128 $1, %xmm11, %ymm11, %ymm11 vmovdqu -64(%rsp), %ymm12 vinserti128 $1, %xmm12, %ymm12, %ymm12 vmovdqu -96(%rsp), %ymm13 vinserti128 $1, %xmm13, %ymm13, %ymm13 vmovdqu -128(%rsp), %ymm14 vinserti128 $1, %xmm14, %ymm14, %ymm14 vmovdqu 192(%rsp), %ymm15 vinserti32x4 $1, %xmm15, %ymm15, %ymm16 vmovdqu 288(%rsp), %ymm15 vinserti32x4 $1, %xmm15, %ymm15, %ymm17 vpmovsxbq .LCPI2_29(%rip), %xmm19 vpmovsxbq .LCPI2_30(%rip), %xmm20 vpbroadcastq .LCPI2_13(%rip), %ymm26 .p2align 4, 0x90 .LBB2_29: leaq 32(%r9), %rcx leaq 32(%rdx), %rax addq $-32, %r10 vpaddd %xmm19, %xmm22, %xmm15 vpaddd %xmm20, %xmm22, %xmm18 vinserti32x4 $1, %xmm15, %ymm22, %ymm15 vxorpd %ymm1, %ymm15, %ymm15 vaesenc %ymm2, %ymm15, %ymm15 vaesenc %ymm3, %ymm15, %ymm15 vaesenc %ymm4, %ymm15, %ymm15 vaesenc %ymm5, %ymm15, %ymm15 vaesenc %ymm6, %ymm15, %ymm15 vaesenc %ymm7, %ymm15, %ymm15 vaesenc %ymm8, %ymm15, %ymm15 vaesenc %ymm9, %ymm15, %ymm15 vaesenc %ymm10, %ymm15, %ymm15 vaesenc %ymm11, %ymm15, %ymm15 vaesenc %ymm12, %ymm15, %ymm15 vaesenc %ymm13, %ymm15, %ymm15 vaesenc %ymm14, %ymm15, %ymm15 vaesenclast %ymm16, %ymm15, %ymm15 vpxor (%r9), %ymm15, %ymm15 vmovdqu %ymm15, (%rdx) vpxorq %ymm24, %ymm15, %ymm15 vpunpcklqdq %ymm15, %ymm17, %ymm21 vpunpckhqdq %ymm15, %ymm17, %ymm22 vpxorq %ymm21, %ymm22, %ymm21 vpclmulqdq $0, %ymm15, %ymm17, %ymm22 vpclmulqdq $1, %ymm21, %ymm21, %ymm21 vpclmulqdq $17, %ymm15, %ymm17, %ymm15 vpternlogq $150, %ymm22, %ymm15, %ymm21 vpslldq $8, %ymm21, %ymm23 vpxorq %ymm23, %ymm22, %ymm22 vpsrldq $8, %ymm21, %ymm21 vpclmulqdq $16, %ymm26, %ymm22, %ymm23 vpshufd $78, %ymm22, %ymm22 vpxorq %ymm22, %ymm23, %ymm22 vpclmulqdq $16, %ymm26, %ymm22, %ymm23 vpxorq %ymm21, %ymm23, %ymm21 vpshufd $78, %ymm22, %ymm24 vpternlogq $150, %ymm21, %ymm15, %ymm24 movq %rax, %rdx vmovdqa64 %xmm18, %xmm22 movq %rcx, %r9 cmpq $31, %r10 ja .LBB2_29 jmp .LBB2_31 .LBB2_30: vmovapd %ymm25, %ymm29 vmovapd %ymm23, %ymm25 movq %rdx, %rax movq %r9, %rcx vmovdqa64 %xmm22, %xmm18 .LBB2_31: vmovdqa 112(%rsp), %xmm1 vpunpcklqdq 128(%rsp), %xmm1, %xmm1 vpsllq $3, %xmm0, %xmm0 testq %r10, %r10 vmovapd %xmm27, %xmm12 je .LBB2_35 movl $-1, %edx bzhil %r10d, %edx, %edx kmovd %edx, %k1 vmovdqu8 (%rcx), %ymm2 {%k1} {z} vpaddd .LCPI2_0(%rip), %xmm18, %xmm3 vinserti32x4 $1, %xmm3, %ymm18, %ymm3 vinsertf32x4 $1, %xmm29, %ymm29, %ymm4 vxorpd %ymm3, %ymm4, %ymm3 vinsertf32x4 $1, %xmm25, %ymm25, %ymm4 vaesenc %ymm4, %ymm3, %ymm3 vinsertf32x4 $1, %xmm28, %ymm28, %ymm4 vaesenc %ymm4, %ymm3, %ymm3 vinsertf32x4 $1, %xmm30, %ymm30, %ymm4 vaesenc %ymm4, %ymm3, %ymm3 vinsertf32x4 $1, %xmm31, %ymm31, %ymm4 vaesenc %ymm4, %ymm3, %ymm3 vmovdqu64 160(%rsp), %ymm27 vinserti32x4 $1, %xmm27, %ymm27, %ymm4 vaesenc %ymm4, %ymm3, %ymm3 vmovdqu 256(%rsp), %ymm6 vinserti128 $1, %xmm6, %ymm6, %ymm4 vaesenc %ymm4, %ymm3, %ymm3 vmovdqu 224(%rsp), %ymm7 vinserti128 $1, %xmm7, %ymm7, %ymm4 vaesenc %ymm4, %ymm3, %ymm3 vmovdqu 32(%rsp), %ymm4 vinserti128 $1, %xmm4, %ymm4, %ymm4 vaesenc %ymm4, %ymm3, %ymm3 vmovdqu (%rsp), %ymm4 vinserti128 $1, %xmm4, %ymm4, %ymm4 vaesenc %ymm4, %ymm3, %ymm3 vmovdqu -32(%rsp), %ymm4 vinserti128 $1, %xmm4, %ymm4, %ymm4 vaesenc %ymm4, %ymm3, %ymm3 vmovdqu -64(%rsp), %ymm4 vinserti128 $1, %xmm4, %ymm4, %ymm4 vaesenc %ymm4, %ymm3, %ymm3 vmovdqu -96(%rsp), %ymm8 vinserti128 $1, %xmm8, %ymm8, %ymm4 vaesenc %ymm4, %ymm3, %ymm3 vmovdqu -128(%rsp), %ymm9 vinserti128 $1, %xmm9, %ymm9, %ymm4 vaesenc %ymm4, %ymm3, %ymm3 vmovdqu 192(%rsp), %ymm11 vinserti128 $1, %xmm11, %ymm11, %ymm4 vaesenclast %ymm4, %ymm3, %ymm3 vpxor %ymm3, %ymm2, %ymm2 vmovdqu8 %ymm2, (%rax) {%k1} vmovdqu8 (%rax), %ymm2 {%k1} {z} vpxorq %ymm2, %ymm24, %ymm2 cmpq $17, %r10 vmovupd 288(%rsp), %ymm3 jae .LBB2_34 vmovapd %xmm12, %xmm3 .LBB2_34: vinsertf128 $1, %xmm3, %ymm3, %ymm3 vpunpcklqdq %ymm2, %ymm3, %ymm4 vpunpckhqdq %ymm2, %ymm3, %ymm5 vxorpd %ymm4, %ymm5, %ymm4 vpclmulqdq $0, %ymm2, %ymm3, %ymm5 vpclmulqdq $1, %ymm4, %ymm4, %ymm4 vpclmulqdq $17, %ymm2, %ymm3, %ymm2 vpternlogq $150, %ymm5, %ymm2, %ymm4 vpslldq $8, %ymm4, %ymm3 vpxor %ymm3, %ymm5, %ymm3 vpsrldq $8, %ymm4, %ymm4 vpbroadcastq .LCPI2_13(%rip), %ymm10 vpclmulqdq $16, %ymm10, %ymm3, %ymm5 vpshufd $78, %ymm3, %ymm3 vpxor %ymm3, %ymm5, %ymm3 vpclmulqdq $16, %ymm10, %ymm3, %ymm5 vpxor %ymm4, %ymm5, %ymm4 vpshufd $78, %ymm3, %ymm24 vpternlogq $150, %ymm4, %ymm2, %ymm24 jmp .LBB2_36 .LBB2_35: vmovdqu64 160(%rsp), %ymm27 vmovdqu 256(%rsp), %ymm6 vmovdqu 224(%rsp), %ymm7 vmovdqu -96(%rsp), %ymm8 vmovdqu -128(%rsp), %ymm9 vmovdqu 192(%rsp), %ymm11 .LBB2_36: vextracti32x4 $1, %ymm24, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vpxorq %xmm0, %xmm24, %xmm0 vpclmulqdq $0, %xmm0, %xmm12, %xmm2 vpclmulqdq $1, %xmm0, %xmm12, %xmm3 vpclmulqdq $16, %xmm0, %xmm12, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm0, %xmm12, %xmm0 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpbroadcastq .LCPI2_13(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm2, %xmm5 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpclmulqdq $16, %xmm4, %xmm2, %xmm4 vpternlogq $150, %xmm0, %xmm1, %xmm4 vpshufd $78, %xmm2, %xmm0 vpternlogq $150, %xmm3, %xmm4, %xmm0 vpternlogq $120, .LCPI2_27(%rip), %xmm0, %xmm29 vaesenc %xmm25, %xmm29, %xmm0 vaesenc %xmm28, %xmm0, %xmm0 vaesenc %xmm30, %xmm0, %xmm0 vaesenc %xmm31, %xmm0, %xmm0 vaesenc %xmm27, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vaesenc 32(%rsp), %xmm0, %xmm0 vaesenc (%rsp), %xmm0, %xmm0 vaesenc -32(%rsp), %xmm0, %xmm0 vaesenc -64(%rsp), %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenclast %xmm11, %xmm0, %xmm0 vpxor 144(%rsp), %xmm0, %xmm0 xorl %eax, %eax vptest %xmm0, %xmm0 sete %al .LBB2_37: addq $584, %rsp .cfi_def_cfa_offset 8 vzeroupper retq .Lfunc_end2: .size haberdashery_aes256gcmsiv_tigerlake_decrypt, .Lfunc_end2-haberdashery_aes256gcmsiv_tigerlake_decrypt .cfi_endproc .section .text.haberdashery_aes256gcmsiv_tigerlake_is_supported,"ax",@progbits .globl haberdashery_aes256gcmsiv_tigerlake_is_supported .p2align 4, 0x90 .type haberdashery_aes256gcmsiv_tigerlake_is_supported,@function haberdashery_aes256gcmsiv_tigerlake_is_supported: .cfi_startproc xorl %esi, %esi movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rdi cpuid xchgq %rbx, %rdi #NO_APP movl %ecx, %edi movl %edx, %r8d notl %r8d notl %edi xorl %ecx, %ecx movl $7, %eax #APP movq %rbx, %r9 cpuid xchgq %rbx, %r9 #NO_APP andl $1993871875, %edi andl $125829120, %r8d orl %edi, %r8d jne .LBB3_3 notl %r9d andl $-240189143, %r9d notl %ecx andl $415260490, %ecx orl %r9d, %ecx jne .LBB3_3 shrl $8, %edx andl $1, %edx movl %edx, %esi .LBB3_3: movl %esi, %eax retq .Lfunc_end3: .size haberdashery_aes256gcmsiv_tigerlake_is_supported, .Lfunc_end3-haberdashery_aes256gcmsiv_tigerlake_is_supported .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
ts-phantomnk90/haberdashery
88,520
asm/aes256gcmdndkv2kc_haswell.s
# @generated # https://github.com/facebookincubator/haberdashery/ .text .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI0_0: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI0_1: .quad 4294967297 .quad 4294967297 .LCPI0_2: .quad 8589934594 .quad 8589934594 .LCPI0_3: .quad 17179869188 .quad 17179869188 .LCPI0_4: .quad 34359738376 .quad 34359738376 .LCPI0_5: .quad 68719476752 .quad 68719476752 .LCPI0_6: .quad 137438953504 .quad 137438953504 .LCPI0_7: .quad 274877907008 .quad 274877907008 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI0_8: .byte 13 .byte 14 .byte 15 .byte 12 .section .text.haberdashery_aes256gcmdndkv2kc_haswell_init,"ax",@progbits .globl haberdashery_aes256gcmdndkv2kc_haswell_init .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2kc_haswell_init,@function haberdashery_aes256gcmdndkv2kc_haswell_init: .cfi_startproc cmpq $32, %rdx jne .LBB0_2 vmovdqu (%rsi), %xmm0 vmovdqu 16(%rsi), %xmm1 vpslldq $4, %xmm0, %xmm2 vpslldq $8, %xmm0, %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpslldq $12, %xmm0, %xmm4 vpbroadcastd .LCPI0_8(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm5 vaesenclast .LCPI0_1(%rip), %xmm5, %xmm5 vpxor %xmm4, %xmm2, %xmm2 vpxor %xmm0, %xmm2, %xmm2 vpxor %xmm2, %xmm5, %xmm2 vpslldq $4, %xmm1, %xmm4 vpslldq $8, %xmm1, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm1, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpshufd $255, %xmm2, %xmm5 vpxor %xmm6, %xmm6, %xmm6 vaesenclast %xmm6, %xmm5, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpslldq $4, %xmm2, %xmm5 vpslldq $8, %xmm2, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpslldq $12, %xmm2, %xmm7 vpshufb %xmm3, %xmm4, %xmm8 vaesenclast .LCPI0_2(%rip), %xmm8, %xmm8 vpxor %xmm7, %xmm5, %xmm5 vpxor %xmm2, %xmm5, %xmm5 vpxor %xmm5, %xmm8, %xmm5 vpslldq $4, %xmm4, %xmm7 vpslldq $8, %xmm4, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpslldq $12, %xmm4, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpshufd $255, %xmm5, %xmm8 vaesenclast %xmm6, %xmm8, %xmm8 vpxor %xmm4, %xmm7, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpslldq $4, %xmm5, %xmm8 vpslldq $8, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpslldq $12, %xmm5, %xmm9 vpxor %xmm9, %xmm8, %xmm8 vpshufb %xmm3, %xmm7, %xmm9 vaesenclast .LCPI0_3(%rip), %xmm9, %xmm9 vpxor %xmm5, %xmm8, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpslldq $4, %xmm7, %xmm9 vpslldq $8, %xmm7, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpslldq $12, %xmm7, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpshufd $255, %xmm8, %xmm10 vaesenclast %xmm6, %xmm10, %xmm10 vpxor %xmm7, %xmm9, %xmm9 vpxor %xmm9, %xmm10, %xmm9 vpslldq $4, %xmm8, %xmm10 vpslldq $8, %xmm8, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpslldq $12, %xmm8, %xmm11 vpxor %xmm11, %xmm10, %xmm10 vpshufb %xmm3, %xmm9, %xmm11 vaesenclast .LCPI0_4(%rip), %xmm11, %xmm11 vpxor %xmm8, %xmm10, %xmm10 vpxor %xmm10, %xmm11, %xmm10 vpslldq $4, %xmm9, %xmm11 vpslldq $8, %xmm9, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpslldq $12, %xmm9, %xmm12 vpxor %xmm12, %xmm11, %xmm11 vpshufd $255, %xmm10, %xmm12 vaesenclast %xmm6, %xmm12, %xmm12 vpxor %xmm9, %xmm11, %xmm11 vpxor %xmm11, %xmm12, %xmm11 vpslldq $4, %xmm10, %xmm12 vpslldq $8, %xmm10, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpslldq $12, %xmm10, %xmm13 vpxor %xmm13, %xmm12, %xmm12 vpshufb %xmm3, %xmm11, %xmm13 vaesenclast .LCPI0_5(%rip), %xmm13, %xmm13 vpxor %xmm10, %xmm12, %xmm12 vpxor %xmm12, %xmm13, %xmm12 vpslldq $4, %xmm11, %xmm13 vpslldq $8, %xmm11, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpslldq $12, %xmm11, %xmm14 vpxor %xmm14, %xmm13, %xmm13 vpshufd $255, %xmm12, %xmm14 vaesenclast %xmm6, %xmm14, %xmm14 vpxor %xmm11, %xmm13, %xmm13 vpxor %xmm13, %xmm14, %xmm13 vpslldq $4, %xmm12, %xmm14 vpslldq $8, %xmm12, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpshufb %xmm3, %xmm13, %xmm15 vaesenclast .LCPI0_6(%rip), %xmm15, %xmm15 vpslldq $12, %xmm12, %xmm3 vpxor %xmm3, %xmm14, %xmm3 vpxor %xmm3, %xmm12, %xmm3 vpxor %xmm3, %xmm15, %xmm3 vpslldq $4, %xmm13, %xmm14 vpslldq $8, %xmm13, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpslldq $12, %xmm13, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpshufd $255, %xmm3, %xmm15 vaesenclast %xmm6, %xmm15, %xmm6 vpxor %xmm13, %xmm14, %xmm14 vpxor %xmm6, %xmm14, %xmm6 vpslldq $4, %xmm3, %xmm14 vpslldq $8, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpslldq $12, %xmm3, %xmm15 vpxor %xmm15, %xmm14, %xmm14 vpshufb .LCPI0_0(%rip), %xmm6, %xmm15 vaesenclast .LCPI0_7(%rip), %xmm15, %xmm15 vpxor %xmm3, %xmm14, %xmm14 vpxor %xmm14, %xmm15, %xmm14 vmovdqa %xmm0, (%rdi) vmovdqa %xmm1, 16(%rdi) vmovdqa %xmm2, 32(%rdi) vmovdqa %xmm4, 48(%rdi) vmovdqa %xmm5, 64(%rdi) vmovdqa %xmm7, 80(%rdi) vmovdqa %xmm8, 96(%rdi) vmovdqa %xmm9, 112(%rdi) vmovdqa %xmm10, 128(%rdi) vmovdqa %xmm11, 144(%rdi) vmovdqa %xmm12, 160(%rdi) vmovdqa %xmm13, 176(%rdi) vmovdqa %xmm3, 192(%rdi) vmovdqa %xmm6, 208(%rdi) vmovdqa %xmm14, 224(%rdi) .LBB0_2: xorl %eax, %eax cmpq $32, %rdx sete %al retq .Lfunc_end0: .size haberdashery_aes256gcmdndkv2kc_haswell_init, .Lfunc_end0-haberdashery_aes256gcmdndkv2kc_haswell_init .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI1_0: .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 0 .LCPI1_1: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 224 .LCPI1_2: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 225 .LCPI1_3: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 226 .LCPI1_4: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 227 .LCPI1_5: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 228 .LCPI1_6: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI1_7: .quad 4294967297 .quad 4294967297 .LCPI1_14: .quad 274877907008 .quad 274877907008 .LCPI1_15: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_16: .zero 8 .quad -4467570830351532032 .LCPI1_17: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI1_18: .long 1 .long 0 .long 0 .long 0 .LCPI1_19: .long 2 .long 0 .long 0 .long 0 .LCPI1_20: .long 3 .long 0 .long 0 .long 0 .LCPI1_21: .long 4 .long 0 .long 0 .long 0 .LCPI1_22: .long 5 .long 0 .long 0 .long 0 .LCPI1_23: .long 6 .long 0 .long 0 .long 0 .LCPI1_24: .long 7 .long 0 .long 0 .long 0 .LCPI1_25: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_26: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI1_27: .zero 16 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI1_8: .long 0x00000002 .LCPI1_9: .long 0x0c0f0e0d .LCPI1_10: .long 0x00000004 .LCPI1_11: .long 0x00000008 .LCPI1_12: .long 0x00000010 .LCPI1_13: .long 0x00000020 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI1_28: .quad -4467570830351532032 .section .text.haberdashery_aes256gcmdndkv2kc_haswell_encrypt,"ax",@progbits .globl haberdashery_aes256gcmdndkv2kc_haswell_encrypt .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2kc_haswell_encrypt,@function haberdashery_aes256gcmdndkv2kc_haswell_encrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $440, %rsp .cfi_def_cfa_offset 496 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 496(%rsp), %r15 xorl %eax, %eax cmpq 512(%rsp), %r15 jne .LBB1_49 movq %r15, %r10 shrq $5, %r10 cmpq $2147483646, %r10 ja .LBB1_49 movabsq $2305843009213693950, %r10 cmpq %r10, %r8 ja .LBB1_49 cmpq $24, %rdx jne .LBB1_49 cmpq $48, 528(%rsp) jne .LBB1_49 vmovdqu (%rsi), %xmm0 vpextrb $15, %xmm0, %edx vpand .LCPI1_0(%rip), %xmm0, %xmm0 vpxor (%rdi), %xmm0, %xmm3 vpxor .LCPI1_1(%rip), %xmm3, %xmm0 vmovdqa 16(%rdi), %xmm4 vmovdqa 32(%rdi), %xmm2 vmovdqa 48(%rdi), %xmm1 vmovdqa 64(%rdi), %xmm5 vaesenc %xmm4, %xmm0, %xmm0 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm1, %xmm0, %xmm0 vaesenc %xmm5, %xmm0, %xmm0 vmovdqa 80(%rdi), %xmm6 vaesenc %xmm6, %xmm0, %xmm0 vmovdqa 96(%rdi), %xmm7 vaesenc %xmm7, %xmm0, %xmm0 vmovdqa 112(%rdi), %xmm8 vaesenc %xmm8, %xmm0, %xmm0 vmovdqa 128(%rdi), %xmm9 vaesenc %xmm9, %xmm0, %xmm0 vmovdqa 144(%rdi), %xmm10 vaesenc %xmm10, %xmm0, %xmm0 vmovdqa 160(%rdi), %xmm11 vaesenc %xmm11, %xmm0, %xmm12 vmovdqa 176(%rdi), %xmm0 vmovdqa %xmm0, 16(%rsp) vaesenc %xmm0, %xmm12, %xmm12 vpxor .LCPI1_2(%rip), %xmm3, %xmm13 vaesenc %xmm4, %xmm13, %xmm13 vpxor .LCPI1_3(%rip), %xmm3, %xmm14 vpxor .LCPI1_4(%rip), %xmm3, %xmm15 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vpxor .LCPI1_5(%rip), %xmm3, %xmm3 vaesenc %xmm4, %xmm3, %xmm3 vmovdqa 192(%rdi), %xmm4 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm2, %xmm13, %xmm13 vaesenc %xmm2, %xmm14, %xmm14 vaesenc %xmm2, %xmm15, %xmm15 vaesenc %xmm2, %xmm3, %xmm3 vmovdqa 208(%rdi), %xmm2 vaesenc %xmm2, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm3, %xmm0 vmovdqa 224(%rdi), %xmm3 vaesenclast %xmm3, %xmm12, %xmm1 vmovdqa %xmm1, (%rsp) vaesenc %xmm5, %xmm13, %xmm12 vaesenc %xmm6, %xmm12, %xmm12 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm9, %xmm12, %xmm12 vaesenc %xmm10, %xmm12, %xmm12 vaesenc %xmm11, %xmm12, %xmm12 vmovdqa 16(%rsp), %xmm1 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm2, %xmm12, %xmm12 vaesenclast %xmm3, %xmm12, %xmm13 vaesenc %xmm5, %xmm14, %xmm12 vaesenc %xmm6, %xmm12, %xmm12 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm9, %xmm12, %xmm12 vaesenc %xmm10, %xmm12, %xmm12 vaesenc %xmm11, %xmm12, %xmm12 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm4, %xmm12, %xmm12 vaesenc %xmm2, %xmm12, %xmm12 vaesenclast %xmm3, %xmm12, %xmm14 vaesenc %xmm5, %xmm15, %xmm12 vaesenc %xmm6, %xmm12, %xmm12 vaesenc %xmm7, %xmm12, %xmm12 vaesenc %xmm8, %xmm12, %xmm12 vaesenc %xmm9, %xmm12, %xmm12 vaesenc %xmm10, %xmm12, %xmm12 vaesenc %xmm11, %xmm12, %xmm1 vmovdqa %xmm1, 160(%rsp) vaesenc %xmm5, %xmm0, %xmm0 vaesenc %xmm6, %xmm0, %xmm0 vaesenc %xmm7, %xmm0, %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vaesenc %xmm9, %xmm0, %xmm0 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm11, %xmm0, %xmm5 vmovdqa (%rsp), %xmm12 vpxor %xmm12, %xmm13, %xmm8 vpxor %xmm12, %xmm14, %xmm9 vpslldq $4, %xmm8, %xmm0 vpslldq $8, %xmm8, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpslldq $12, %xmm8, %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpbroadcastd .LCPI1_9(%rip), %xmm7 vpshufb %xmm7, %xmm9, %xmm6 vaesenclast .LCPI1_7(%rip), %xmm6, %xmm6 vpxor %xmm0, %xmm8, %xmm0 vpxor %xmm0, %xmm6, %xmm13 vmovdqa %xmm8, 128(%rsp) vaesenc %xmm9, %xmm8, %xmm6 vpslldq $4, %xmm9, %xmm0 vpslldq $8, %xmm9, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vpslldq $12, %xmm9, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vpshufd $255, %xmm13, %xmm8 vpxor %xmm1, %xmm1, %xmm1 vaesenclast %xmm1, %xmm8, %xmm8 vmovdqa %xmm9, 304(%rsp) vpxor %xmm0, %xmm9, %xmm0 vpxor %xmm0, %xmm8, %xmm11 vbroadcastss .LCPI1_8(%rip), %xmm0 vbroadcastss .LCPI1_9(%rip), %xmm8 vmovdqa %xmm13, 240(%rsp) #APP vaesenc %xmm13, %xmm6, %xmm6 vpslldq $4, %xmm13, %xmm9 vpslldq $8, %xmm13, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpslldq $12, %xmm13, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpxor %xmm13, %xmm9, %xmm9 vpshufb %xmm8, %xmm11, %xmm15 vaesenclast %xmm0, %xmm15, %xmm15 vpxor %xmm9, %xmm15, %xmm15 #NO_APP vmovdqa %xmm11, 192(%rsp) #APP vaesenc %xmm11, %xmm6, %xmm6 vpslldq $4, %xmm11, %xmm0 vpslldq $8, %xmm11, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpslldq $12, %xmm11, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpxor %xmm0, %xmm11, %xmm0 vpshufd $255, %xmm15, %xmm14 vaesenclast %xmm1, %xmm14, %xmm14 vpxor %xmm0, %xmm14, %xmm14 #NO_APP vbroadcastss .LCPI1_10(%rip), %xmm0 vmovaps %xmm15, 288(%rsp) #APP vaesenc %xmm15, %xmm6, %xmm6 vpslldq $4, %xmm15, %xmm9 vpslldq $8, %xmm15, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpslldq $12, %xmm15, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpxor %xmm15, %xmm9, %xmm9 vpshufb %xmm8, %xmm14, %xmm13 vaesenclast %xmm0, %xmm13, %xmm13 vpxor %xmm9, %xmm13, %xmm13 #NO_APP vmovaps %xmm14, 224(%rsp) #APP vaesenc %xmm14, %xmm6, %xmm6 vpslldq $4, %xmm14, %xmm0 vpslldq $8, %xmm14, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpslldq $12, %xmm14, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpxor %xmm0, %xmm14, %xmm0 vpshufd $255, %xmm13, %xmm11 vaesenclast %xmm1, %xmm11, %xmm11 vpxor %xmm0, %xmm11, %xmm11 #NO_APP vbroadcastss .LCPI1_11(%rip), %xmm0 vmovaps %xmm13, 272(%rsp) #APP vaesenc %xmm13, %xmm6, %xmm6 vpslldq $4, %xmm13, %xmm9 vpslldq $8, %xmm13, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpslldq $12, %xmm13, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpxor %xmm13, %xmm9, %xmm9 vpshufb %xmm8, %xmm11, %xmm15 vaesenclast %xmm0, %xmm15, %xmm15 vpxor %xmm9, %xmm15, %xmm15 #NO_APP vmovaps %xmm11, 64(%rsp) #APP vaesenc %xmm11, %xmm6, %xmm6 vpslldq $4, %xmm11, %xmm0 vpslldq $8, %xmm11, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpslldq $12, %xmm11, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpxor %xmm0, %xmm11, %xmm0 vpshufd $255, %xmm15, %xmm14 vaesenclast %xmm1, %xmm14, %xmm14 vpxor %xmm0, %xmm14, %xmm14 #NO_APP vbroadcastss .LCPI1_12(%rip), %xmm0 vmovaps %xmm15, 256(%rsp) #APP vaesenc %xmm15, %xmm6, %xmm6 vpslldq $4, %xmm15, %xmm9 vpslldq $8, %xmm15, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpslldq $12, %xmm15, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpxor %xmm15, %xmm9, %xmm9 vpshufb %xmm8, %xmm14, %xmm13 vaesenclast %xmm0, %xmm13, %xmm13 vpxor %xmm9, %xmm13, %xmm13 #NO_APP vmovaps %xmm14, 32(%rsp) #APP vaesenc %xmm14, %xmm6, %xmm6 vpslldq $4, %xmm14, %xmm0 vpslldq $8, %xmm14, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpslldq $12, %xmm14, %xmm9 vpxor %xmm0, %xmm9, %xmm0 vpxor %xmm0, %xmm14, %xmm0 vpshufd $255, %xmm13, %xmm11 vaesenclast %xmm1, %xmm11, %xmm11 vpxor %xmm0, %xmm11, %xmm11 #NO_APP vbroadcastss .LCPI1_13(%rip), %xmm0 vmovaps %xmm13, 208(%rsp) #APP vaesenc %xmm13, %xmm6, %xmm6 vpslldq $4, %xmm13, %xmm9 vpslldq $8, %xmm13, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpslldq $12, %xmm13, %xmm10 vpxor %xmm10, %xmm9, %xmm9 vpxor %xmm13, %xmm9, %xmm9 vpshufb %xmm8, %xmm11, %xmm15 vaesenclast %xmm0, %xmm15, %xmm15 vpxor %xmm9, %xmm15, %xmm15 #NO_APP vmovdqa %xmm15, %xmm13 vpslldq $4, %xmm11, %xmm0 vpunpcklqdq %xmm11, %xmm1, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vinsertps $55, %xmm11, %xmm0, %xmm8 vxorps %xmm0, %xmm8, %xmm0 vpshufd $255, %xmm15, %xmm8 vaesenclast %xmm1, %xmm8, %xmm8 vxorps %xmm0, %xmm11, %xmm0 vpxor %xmm0, %xmm8, %xmm9 vpslldq $4, %xmm15, %xmm0 vpunpcklqdq %xmm15, %xmm1, %xmm8 vpxor %xmm0, %xmm8, %xmm0 vinsertps $55, %xmm15, %xmm0, %xmm8 vxorps %xmm0, %xmm8, %xmm0 vpshufb %xmm7, %xmm9, %xmm7 vaesenclast .LCPI1_14(%rip), %xmm7, %xmm7 vxorps %xmm0, %xmm15, %xmm0 vpxor %xmm0, %xmm7, %xmm7 vmovdqa 16(%rsp), %xmm8 vmovdqa 160(%rsp), %xmm0 vaesenc %xmm8, %xmm0, %xmm0 vmovaps %xmm11, 112(%rsp) vaesenc %xmm11, %xmm6, %xmm6 vaesenc %xmm15, %xmm6, %xmm6 vmovdqa %xmm9, 48(%rsp) vaesenc %xmm9, %xmm6, %xmm6 vmovdqa %xmm7, 96(%rsp) vaesenclast %xmm7, %xmm6, %xmm6 vpshufb .LCPI1_15(%rip), %xmm6, %xmm6 vaesenc %xmm8, %xmm5, %xmm5 vpsrlq $63, %xmm6, %xmm7 vpaddq %xmm6, %xmm6, %xmm6 vpshufd $78, %xmm7, %xmm8 vpor %xmm6, %xmm8, %xmm6 vpblendd $12, %xmm7, %xmm1, %xmm7 vpsllq $63, %xmm7, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpsllq $62, %xmm7, %xmm8 vpsllq $57, %xmm7, %xmm7 vpxor %xmm7, %xmm8, %xmm7 vpxor %xmm7, %xmm6, %xmm14 vaesenc %xmm4, %xmm0, %xmm0 vpclmulqdq $0, %xmm14, %xmm14, %xmm6 vpbroadcastq .LCPI1_28(%rip), %xmm8 vpclmulqdq $16, %xmm8, %xmm6, %xmm7 vaesenc %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm14, %xmm14, %xmm5 vpshufd $78, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm6 vpshufd $78, %xmm6, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $16, %xmm8, %xmm6, %xmm6 vpxor %xmm6, %xmm5, %xmm15 vaesenc %xmm2, %xmm0, %xmm0 vpclmulqdq $0, %xmm14, %xmm15, %xmm5 vaesenc %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm14, %xmm15, %xmm4 vaesenclast %xmm3, %xmm0, %xmm0 vpclmulqdq $1, %xmm14, %xmm15, %xmm6 vaesenclast %xmm3, %xmm2, %xmm2 vpxor %xmm4, %xmm6, %xmm3 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $16, %xmm8, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm14, %xmm15, %xmm5 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpshufd $78, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpclmulqdq $16, %xmm8, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm10 vpxor %xmm0, %xmm12, %xmm0 vpclmulqdq $0, %xmm10, %xmm10, %xmm3 vpxor %xmm2, %xmm12, %xmm1 vpclmulqdq $16, %xmm8, %xmm3, %xmm2 vpshufd $78, %xmm3, %xmm3 vpclmulqdq $0, %xmm15, %xmm15, %xmm4 vpxor %xmm3, %xmm2, %xmm2 vpclmulqdq $16, %xmm8, %xmm4, %xmm3 vpshufd $78, %xmm4, %xmm4 vpclmulqdq $16, %xmm8, %xmm2, %xmm5 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm8, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpclmulqdq $17, %xmm15, %xmm15, %xmm6 vpxor %xmm3, %xmm6, %xmm3 vpclmulqdq $17, %xmm10, %xmm10, %xmm6 vpxor %xmm4, %xmm3, %xmm11 vpclmulqdq $0, %xmm14, %xmm11, %xmm3 vpshufd $78, %xmm2, %xmm2 vpclmulqdq $16, %xmm14, %xmm11, %xmm4 vpxor %xmm2, %xmm6, %xmm2 vpclmulqdq $1, %xmm14, %xmm11, %xmm6 vpxor %xmm5, %xmm2, %xmm9 vpxor %xmm4, %xmm6, %xmm2 vpslldq $8, %xmm2, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $16, %xmm8, %xmm3, %xmm4 vpshufd $78, %xmm3, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm14, %xmm11, %xmm4 vpsrldq $8, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpshufd $78, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpclmulqdq $16, %xmm8, %xmm3, %xmm3 vpxor %xmm3, %xmm2, %xmm12 movq 520(%rsp), %r12 movzbl 16(%rsi), %edi movzbl 17(%rsi), %r10d movzbl 23(%rsi), %r11d shll $8, %edi orl %edx, %edi shll $16, %r10d orl %edi, %r10d movzbl 18(%rsi), %edx shll $24, %edx orl %r10d, %edx vmovd %edx, %xmm2 vpinsrd $1, 19(%rsi), %xmm2, %xmm2 vmovdqu %xmm0, (%r12) vmovdqu %xmm1, 16(%r12) vpinsrd $2, %r11d, %xmm2, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm0 vmovdqa %xmm0, 400(%rsp) testq %r8, %r8 vmovdqa %xmm9, 368(%rsp) vmovdqa %xmm10, 352(%rsp) vmovdqa %xmm11, 336(%rsp) vmovdqa %xmm12, 320(%rsp) vmovdqa %xmm13, 176(%rsp) vmovdqa %xmm14, 16(%rsp) vmovdqa %xmm15, 384(%rsp) je .LBB1_23 cmpq $96, %r8 jb .LBB1_7 vmovdqu 32(%rcx), %xmm1 vmovdqu 48(%rcx), %xmm2 vmovdqu 64(%rcx), %xmm3 vmovdqu 80(%rcx), %xmm4 vmovdqa .LCPI1_15(%rip), %xmm0 vpshufb %xmm0, %xmm4, %xmm4 vpclmulqdq $0, %xmm4, %xmm14, %xmm5 vpshufb %xmm0, %xmm1, %xmm6 vpclmulqdq $1, %xmm4, %xmm14, %xmm7 vpshufb %xmm0, %xmm2, %xmm1 vpclmulqdq $16, %xmm4, %xmm14, %xmm2 vpshufb %xmm0, %xmm3, %xmm3 vpclmulqdq $17, %xmm4, %xmm14, %xmm4 vpxor %xmm7, %xmm2, %xmm2 vpclmulqdq $0, %xmm3, %xmm15, %xmm7 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $1, %xmm3, %xmm15, %xmm7 vpxor %xmm7, %xmm2, %xmm2 vpclmulqdq $16, %xmm3, %xmm15, %xmm7 vpxor %xmm7, %xmm2, %xmm2 vpclmulqdq $17, %xmm3, %xmm15, %xmm3 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $0, %xmm1, %xmm10, %xmm4 vpclmulqdq $1, %xmm1, %xmm10, %xmm7 vpxor %xmm7, %xmm2, %xmm2 vpclmulqdq $0, %xmm6, %xmm11, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $16, %xmm1, %xmm10, %xmm7 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $1, %xmm6, %xmm11, %xmm5 vpxor %xmm5, %xmm7, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $16, %xmm6, %xmm11, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $17, %xmm6, %xmm11, %xmm5 vmovdqu (%rcx), %xmm6 vpxor %xmm5, %xmm3, %xmm3 vmovdqu 16(%rcx), %xmm5 vpshufb %xmm0, %xmm6, %xmm6 vpshufb %xmm0, %xmm5, %xmm5 vpclmulqdq $17, %xmm1, %xmm10, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $0, %xmm5, %xmm12, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $1, %xmm5, %xmm12, %xmm4 vpxor %xmm4, %xmm2, %xmm4 vpclmulqdq $16, %xmm5, %xmm12, %xmm7 vpclmulqdq $17, %xmm5, %xmm12, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $0, %xmm6, %xmm9, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $1, %xmm6, %xmm9, %xmm3 vpxor %xmm3, %xmm7, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm6, %xmm9, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $17, %xmm6, %xmm9, %xmm4 vpxor %xmm4, %xmm1, %xmm1 addq $96, %rcx leaq -96(%r8), %rsi cmpq $96, %rsi jb .LBB1_13 vmovdqa 368(%rsp), %xmm13 vmovdqa 352(%rsp), %xmm12 vmovdqa 336(%rsp), %xmm11 vmovdqa 320(%rsp), %xmm10 vmovdqa 384(%rsp), %xmm15 .p2align 4, 0x90 .LBB1_12: vmovdqu (%rcx), %xmm5 vmovdqu 32(%rcx), %xmm6 vmovdqu 48(%rcx), %xmm4 vmovdqu 64(%rcx), %xmm7 vmovdqu 80(%rcx), %xmm8 vpslldq $8, %xmm3, %xmm9 vpxor %xmm2, %xmm9, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpbroadcastq .LCPI1_28(%rip), %xmm14 vpclmulqdq $16, %xmm14, %xmm2, %xmm9 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm9, %xmm2 vpclmulqdq $16, %xmm14, %xmm2, %xmm9 vpxor %xmm3, %xmm1, %xmm1 vpshufd $78, %xmm2, %xmm2 vpshufb %xmm0, %xmm5, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpshufb %xmm0, %xmm8, %xmm3 vmovdqa 16(%rsp), %xmm14 vpclmulqdq $0, %xmm3, %xmm14, %xmm5 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $1, %xmm3, %xmm14, %xmm8 vpxor %xmm1, %xmm9, %xmm1 vpclmulqdq $16, %xmm3, %xmm14, %xmm9 vpshufb %xmm0, %xmm6, %xmm2 vpclmulqdq $17, %xmm3, %xmm14, %xmm3 vpshufb %xmm0, %xmm7, %xmm6 vpclmulqdq $0, %xmm6, %xmm15, %xmm7 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $1, %xmm6, %xmm15, %xmm9 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $16, %xmm6, %xmm15, %xmm7 vpshufb %xmm0, %xmm4, %xmm4 vpclmulqdq $17, %xmm6, %xmm15, %xmm6 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm4, %xmm12, %xmm9 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $1, %xmm4, %xmm12, %xmm8 vpxor %xmm3, %xmm6, %xmm3 vpclmulqdq $16, %xmm4, %xmm12, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm2, %xmm11, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $17, %xmm4, %xmm12, %xmm4 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $1, %xmm2, %xmm11, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm2, %xmm11, %xmm8 vpxor %xmm6, %xmm7, %xmm6 vpxor %xmm4, %xmm8, %xmm4 vmovdqu 16(%rcx), %xmm7 vpshufb %xmm0, %xmm7, %xmm7 vpclmulqdq $16, %xmm2, %xmm11, %xmm2 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $0, %xmm7, %xmm10, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $1, %xmm7, %xmm10, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $16, %xmm7, %xmm10, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpxor %xmm2, %xmm6, %xmm5 vpclmulqdq $17, %xmm7, %xmm10, %xmm2 vpxor %xmm2, %xmm3, %xmm6 vpclmulqdq $0, %xmm1, %xmm13, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $1, %xmm1, %xmm13, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $16, %xmm1, %xmm13, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $17, %xmm1, %xmm13, %xmm1 vpxor %xmm1, %xmm6, %xmm1 addq $96, %rcx addq $-96, %rsi cmpq $95, %rsi ja .LBB1_12 .LBB1_13: vpslldq $8, %xmm3, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI1_28(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm4, %xmm0, %xmm3 vpxor %xmm2, %xmm1, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm3, %xmm0, %xmm5 vmovdqa 16(%rsp), %xmm14 vmovdqa 32(%rsp), %xmm15 vmovdqa 176(%rsp), %xmm13 vmovdqa 48(%rsp), %xmm11 vmovdqa 64(%rsp), %xmm8 jmp .LBB1_8 .LBB1_23: vmovdqa %xmm8, %xmm6 vpxor %xmm5, %xmm5, %xmm5 testq %r15, %r15 vmovdqa 32(%rsp), %xmm15 vmovdqa 112(%rsp), %xmm9 vmovdqa 96(%rsp), %xmm10 vmovdqa 48(%rsp), %xmm11 vmovdqa 64(%rsp), %xmm8 vmovdqa 128(%rsp), %xmm12 jne .LBB1_29 jmp .LBB1_48 .LBB1_7: movq %r8, %rsi vmovdqa 32(%rsp), %xmm15 vmovdqa 48(%rsp), %xmm11 vmovdqa 64(%rsp), %xmm8 vpxor %xmm5, %xmm5, %xmm5 .LBB1_8: cmpq $16, %rsi vmovdqa 112(%rsp), %xmm9 vmovdqa 96(%rsp), %xmm10 vmovdqa 128(%rsp), %xmm12 jb .LBB1_9 leaq -16(%rsi), %rdx testb $16, %dl je .LBB1_15 cmpq $16, %rdx jae .LBB1_17 .LBB1_20: testq %rdx, %rdx je .LBB1_24 .LBB1_21: vmovdqa %xmm5, (%rsp) movq %r9, %r14 movq %r8, %rbx vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 80(%rsp) leaq 80(%rsp), %rdi movq %rcx, %rsi callq *memcpy@GOTPCREL(%rip) vmovdqa 80(%rsp), %xmm0 testq %r15, %r15 je .LBB1_22 movabsq $-68719476704, %rax leaq (%r15,%rax), %rcx incq %rax cmpq %rax, %rcx movl $0, %eax vmovdqa 128(%rsp), %xmm12 vmovdqa 64(%rsp), %xmm8 vmovdqa 32(%rsp), %xmm15 vmovdqa 112(%rsp), %xmm9 vmovdqa 176(%rsp), %xmm13 vmovdqa 48(%rsp), %xmm11 vmovdqa 96(%rsp), %xmm10 vpbroadcastq .LCPI1_28(%rip), %xmm6 vmovdqa 16(%rsp), %xmm14 vmovdqa (%rsp), %xmm1 jb .LBB1_49 movq %rbx, %r8 movq %r14, %r9 vpshufb .LCPI1_15(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm0, %xmm14, %xmm1 vpclmulqdq $1, %xmm0, %xmm14, %xmm2 vpclmulqdq $16, %xmm0, %xmm14, %xmm3 vpclmulqdq $17, %xmm0, %xmm14, %xmm0 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $16, %xmm6, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm6, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm5 jmp .LBB1_29 .LBB1_9: movq %rsi, %rdx testq %rdx, %rdx jne .LBB1_21 .LBB1_24: testq %r15, %r15 je .LBB1_25 movabsq $-68719476704, %rcx leaq (%r15,%rcx), %rdx incq %rcx cmpq %rcx, %rdx jb .LBB1_49 .LBB1_29: vmovdqa 400(%rsp), %xmm0 vpshufb .LCPI1_17(%rip), %xmm0, %xmm1 movq 504(%rsp), %rdx vpaddd .LCPI1_18(%rip), %xmm1, %xmm2 cmpq $96, %r15 jb .LBB1_30 vmovdqa %xmm5, (%rsp) leaq 96(%r9), %rcx leaq 96(%rdx), %rax vmovdqa .LCPI1_15(%rip), %xmm0 vpshufb %xmm0, %xmm2, %xmm2 vpaddd .LCPI1_19(%rip), %xmm1, %xmm3 vpshufb %xmm0, %xmm3, %xmm3 vpaddd .LCPI1_20(%rip), %xmm1, %xmm4 vpaddd .LCPI1_21(%rip), %xmm1, %xmm5 vpshufb %xmm0, %xmm4, %xmm4 vpshufb %xmm0, %xmm5, %xmm5 vpaddd .LCPI1_22(%rip), %xmm1, %xmm6 vpshufb %xmm0, %xmm6, %xmm6 vpaddd .LCPI1_23(%rip), %xmm1, %xmm7 vpshufb %xmm0, %xmm7, %xmm7 vpaddd .LCPI1_24(%rip), %xmm1, %xmm1 vmovdqa %xmm1, 144(%rsp) vpxor %xmm2, %xmm12, %xmm1 vpxor %xmm3, %xmm12, %xmm2 vpxor %xmm4, %xmm12, %xmm3 vpxor %xmm5, %xmm12, %xmm4 vpxor %xmm6, %xmm12, %xmm5 vpxor %xmm7, %xmm12, %xmm6 vmovaps 304(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 #NO_APP vmovdqa 240(%rsp), %xmm12 #APP vaesenc %xmm12, %xmm1, %xmm1 vaesenc %xmm12, %xmm2, %xmm2 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm12, %xmm4, %xmm4 vaesenc %xmm12, %xmm5, %xmm5 vaesenc %xmm12, %xmm6, %xmm6 #NO_APP vmovaps 192(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 #NO_APP vmovaps 288(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 #NO_APP vmovdqa 224(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm4, %xmm4 vaesenc %xmm0, %xmm5, %xmm5 vaesenc %xmm0, %xmm6, %xmm6 #NO_APP vmovaps 272(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 vaesenc %xmm7, %xmm6, %xmm6 #NO_APP #APP vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 #NO_APP vmovdqa 256(%rsp), %xmm7 #APP vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm7, %xmm4, %xmm4 vaesenc %xmm7, %xmm5, %xmm5 vaesenc %xmm7, %xmm6, %xmm6 #NO_APP #APP vaesenc %xmm15, %xmm1, %xmm1 vaesenc %xmm15, %xmm2, %xmm2 vaesenc %xmm15, %xmm3, %xmm3 vaesenc %xmm15, %xmm4, %xmm4 vaesenc %xmm15, %xmm5, %xmm5 vaesenc %xmm15, %xmm6, %xmm6 #NO_APP vmovaps 208(%rsp), %xmm8 #APP vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm4, %xmm4 vaesenc %xmm8, %xmm5, %xmm5 vaesenc %xmm8, %xmm6, %xmm6 #NO_APP #APP vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm4, %xmm4 vaesenc %xmm9, %xmm5, %xmm5 vaesenc %xmm9, %xmm6, %xmm6 #NO_APP #APP vaesenc %xmm13, %xmm1, %xmm1 vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm13, %xmm3, %xmm3 vaesenc %xmm13, %xmm4, %xmm4 vaesenc %xmm13, %xmm5, %xmm5 vaesenc %xmm13, %xmm6, %xmm6 #NO_APP #APP vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm4, %xmm4 vaesenc %xmm11, %xmm5, %xmm5 vaesenc %xmm11, %xmm6, %xmm6 #NO_APP #APP vaesenclast %xmm10, %xmm1, %xmm1 vaesenclast %xmm10, %xmm2, %xmm2 vaesenclast %xmm10, %xmm3, %xmm3 vaesenclast %xmm10, %xmm4, %xmm4 vaesenclast %xmm10, %xmm5, %xmm5 vaesenclast %xmm10, %xmm6, %xmm6 #NO_APP vpxor (%r9), %xmm1, %xmm13 vpxor 16(%r9), %xmm2, %xmm1 vpxor 32(%r9), %xmm3, %xmm9 vpxor 48(%r9), %xmm4, %xmm2 vpxor 64(%r9), %xmm5, %xmm11 vmovdqa %xmm2, %xmm5 vpxor 80(%r9), %xmm6, %xmm2 vmovdqu %xmm13, (%rdx) vmovdqu %xmm1, 16(%rdx) vmovdqu %xmm9, 32(%rdx) vmovdqu %xmm5, 48(%rdx) vmovdqu %xmm11, 64(%rdx) leaq -96(%r15), %rbx vmovdqu %xmm2, 80(%rdx) cmpq $96, %rbx jb .LBB1_36 vmovdqa (%rsp), %xmm0 vmovdqa 144(%rsp), %xmm10 vmovdqa .LCPI1_15(%rip), %xmm8 .p2align 4, 0x90 .LBB1_39: vmovdqa %xmm5, 160(%rsp) vmovdqa %xmm1, 144(%rsp) vpshufb %xmm8, %xmm10, %xmm3 vpaddd .LCPI1_18(%rip), %xmm10, %xmm4 vpshufb %xmm8, %xmm4, %xmm5 vpaddd .LCPI1_19(%rip), %xmm10, %xmm4 vpshufb %xmm8, %xmm4, %xmm6 vpaddd .LCPI1_20(%rip), %xmm10, %xmm4 vpshufb %xmm8, %xmm4, %xmm7 vpaddd .LCPI1_21(%rip), %xmm10, %xmm4 vpshufb %xmm8, %xmm4, %xmm12 vpaddd .LCPI1_22(%rip), %xmm10, %xmm4 vpshufb .LCPI1_15(%rip), %xmm4, %xmm8 vpshufb .LCPI1_15(%rip), %xmm13, %xmm4 vpxor %xmm4, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) vpshufb .LCPI1_15(%rip), %xmm2, %xmm0 vmovdqa 128(%rsp), %xmm1 vpxor %xmm3, %xmm1, %xmm13 vpxor %xmm5, %xmm1, %xmm14 vpxor %xmm6, %xmm1, %xmm15 vpxor %xmm7, %xmm1, %xmm2 vpxor %xmm1, %xmm12, %xmm3 vpxor %xmm1, %xmm8, %xmm12 vmovaps 304(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm12, %xmm12 #NO_APP vpxor %xmm6, %xmm6, %xmm6 vpxor %xmm5, %xmm5, %xmm5 vpxor %xmm7, %xmm7, %xmm7 vmovaps 16(%rsp), %xmm4 vmovdqa %xmm9, %xmm1 vmovaps 240(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm13, %xmm13 vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm12, %xmm12 vpclmulqdq $16, %xmm4, %xmm0, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm4, %xmm0, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm4, %xmm0, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $1, %xmm4, %xmm0, %xmm8 vpxor %xmm6, %xmm8, %xmm6 #NO_APP vpshufb .LCPI1_15(%rip), %xmm11, %xmm0 vmovaps 192(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm12, %xmm12 #NO_APP vmovaps 288(%rsp), %xmm4 vmovaps 384(%rsp), %xmm9 #APP vaesenc %xmm4, %xmm13, %xmm13 vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm12, %xmm12 vpclmulqdq $16, %xmm9, %xmm0, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm9, %xmm0, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm9, %xmm0, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $1, %xmm9, %xmm0, %xmm8 vpxor %xmm6, %xmm8, %xmm6 #NO_APP vmovdqa 160(%rsp), %xmm0 vpshufb .LCPI1_15(%rip), %xmm0, %xmm0 vmovaps 224(%rsp), %xmm8 #APP vaesenc %xmm8, %xmm13, %xmm13 vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm12, %xmm12 #NO_APP vmovaps 272(%rsp), %xmm11 vmovaps 352(%rsp), %xmm4 #APP vaesenc %xmm11, %xmm13, %xmm13 vaesenc %xmm11, %xmm14, %xmm14 vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm12, %xmm12 vpclmulqdq $16, %xmm4, %xmm0, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm4, %xmm0, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm4, %xmm0, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $1, %xmm4, %xmm0, %xmm8 vpxor %xmm6, %xmm8, %xmm6 #NO_APP vpshufb .LCPI1_15(%rip), %xmm1, %xmm0 vmovaps 64(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm12, %xmm12 #NO_APP vmovaps 256(%rsp), %xmm1 vmovaps 336(%rsp), %xmm4 #APP vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm12, %xmm12 vpclmulqdq $16, %xmm4, %xmm0, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm4, %xmm0, %xmm8 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm4, %xmm0, %xmm8 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $1, %xmm4, %xmm0, %xmm8 vpxor %xmm6, %xmm8, %xmm6 #NO_APP vmovdqa .LCPI1_15(%rip), %xmm8 vmovdqa 144(%rsp), %xmm0 vpshufb %xmm8, %xmm0, %xmm0 vmovaps 32(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm12, %xmm12 #NO_APP vmovaps 208(%rsp), %xmm11 vmovaps 320(%rsp), %xmm4 #APP vaesenc %xmm11, %xmm13, %xmm13 vaesenc %xmm11, %xmm14, %xmm14 vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm12, %xmm12 vpclmulqdq $16, %xmm4, %xmm0, %xmm1 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm4, %xmm0, %xmm1 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $17, %xmm4, %xmm0, %xmm1 vpxor %xmm1, %xmm5, %xmm5 vpclmulqdq $1, %xmm4, %xmm0, %xmm1 vpxor %xmm1, %xmm6, %xmm6 #NO_APP vmovaps 112(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm13, %xmm13 vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm12, %xmm12 #NO_APP vmovdqa 176(%rsp), %xmm1 vmovaps 368(%rsp), %xmm4 vmovaps (%rsp), %xmm9 #APP vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm12, %xmm12 vpclmulqdq $16, %xmm4, %xmm9, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpclmulqdq $0, %xmm4, %xmm9, %xmm0 vpxor %xmm0, %xmm7, %xmm7 vpclmulqdq $17, %xmm4, %xmm9, %xmm0 vpxor %xmm0, %xmm5, %xmm5 vpclmulqdq $1, %xmm4, %xmm9, %xmm0 vpxor %xmm0, %xmm6, %xmm6 #NO_APP vpxor %xmm1, %xmm1, %xmm1 vpunpcklqdq %xmm6, %xmm1, %xmm0 vpxor %xmm0, %xmm7, %xmm0 vpunpckhqdq %xmm1, %xmm6, %xmm1 vpbroadcastq .LCPI1_28(%rip), %xmm6 vpclmulqdq $16, %xmm6, %xmm0, %xmm4 vpxor %xmm1, %xmm5, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm4, %xmm0 vpshufd $78, %xmm0, %xmm4 vpxor %xmm4, %xmm1, %xmm4 vpclmulqdq $16, %xmm6, %xmm0, %xmm0 vmovaps 48(%rsp), %xmm1 #APP vaesenc %xmm1, %xmm13, %xmm13 vaesenc %xmm1, %xmm14, %xmm14 vaesenc %xmm1, %xmm15, %xmm15 vaesenc %xmm1, %xmm2, %xmm2 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm1, %xmm12, %xmm12 #NO_APP vmovaps 96(%rsp), %xmm1 #APP vaesenclast %xmm1, %xmm13, %xmm13 vaesenclast %xmm1, %xmm14, %xmm14 vaesenclast %xmm1, %xmm15, %xmm15 vaesenclast %xmm1, %xmm2, %xmm2 vaesenclast %xmm1, %xmm3, %xmm3 vaesenclast %xmm1, %xmm12, %xmm12 #NO_APP vpxor (%rcx), %xmm13, %xmm13 vpxor 16(%rcx), %xmm14, %xmm1 vpxor 32(%rcx), %xmm15, %xmm9 vpxor 48(%rcx), %xmm2, %xmm5 vpxor 64(%rcx), %xmm3, %xmm11 vpxor %xmm0, %xmm4, %xmm0 vpxor 80(%rcx), %xmm12, %xmm2 addq $96, %rcx vmovdqu %xmm13, (%rax) vmovdqu %xmm1, 16(%rax) vmovdqu %xmm9, 32(%rax) vmovdqu %xmm5, 48(%rax) vmovdqu %xmm11, 64(%rax) vmovdqu %xmm2, 80(%rax) addq $96, %rax addq $-96, %rbx vpaddd .LCPI1_23(%rip), %xmm10, %xmm10 cmpq $95, %rbx ja .LBB1_39 vmovdqa %xmm5, 160(%rsp) vmovdqa %xmm10, 144(%rsp) vmovdqa %xmm0, (%rsp) vmovdqa 32(%rsp), %xmm15 vmovdqa 16(%rsp), %xmm14 jmp .LBB1_37 .LBB1_30: vmovdqa %xmm5, %xmm6 vmovdqa %xmm2, 144(%rsp) movq %r15, %rbx vmovdqa 224(%rsp), %xmm5 vmovdqa 208(%rsp), %xmm0 vmovdqa 192(%rsp), %xmm1 movq %r8, %r13 cmpq $16, %rbx jae .LBB1_41 .LBB1_32: movq %rdx, %r14 movq %r9, %rsi vmovdqa 144(%rsp), %xmm14 jmp .LBB1_33 .LBB1_15: vmovdqu (%rcx), %xmm0 vpshufb .LCPI1_15(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpclmulqdq $0, %xmm0, %xmm14, %xmm1 vpclmulqdq $1, %xmm0, %xmm14, %xmm2 vpclmulqdq $16, %xmm0, %xmm14, %xmm3 addq $16, %rcx vpclmulqdq $17, %xmm0, %xmm14, %xmm5 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpbroadcastq .LCPI1_28(%rip), %xmm3 vmovdqa %xmm15, %xmm0 vmovdqa %xmm3, %xmm15 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm15, %xmm1, %xmm3 vmovdqa %xmm0, %xmm15 vpxor %xmm2, %xmm5, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm5 movq %rdx, %rsi cmpq $16, %rdx jb .LBB1_20 .LBB1_17: vmovdqa .LCPI1_15(%rip), %xmm0 vpbroadcastq .LCPI1_28(%rip), %xmm15 .p2align 4, 0x90 .LBB1_18: vmovdqu (%rcx), %xmm1 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm1, %xmm5, %xmm1 vpclmulqdq $0, %xmm1, %xmm14, %xmm2 vpclmulqdq $1, %xmm1, %xmm14, %xmm3 vmovdqu 16(%rcx), %xmm4 vpclmulqdq $16, %xmm1, %xmm14, %xmm5 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $17, %xmm1, %xmm14, %xmm1 vpslldq $8, %xmm3, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm15, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm15, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufb %xmm0, %xmm4, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $0, %xmm1, %xmm14, %xmm2 addq $32, %rcx vpclmulqdq $1, %xmm1, %xmm14, %xmm3 addq $-32, %rsi vpclmulqdq $16, %xmm1, %xmm14, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm14, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm15, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm15, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm5 cmpq $15, %rsi ja .LBB1_18 movq %rsi, %rdx vmovdqa 32(%rsp), %xmm15 testq %rdx, %rdx jne .LBB1_21 jmp .LBB1_24 .LBB1_22: movq %rbx, %r8 jmp .LBB1_46 .LBB1_36: vmovdqa %xmm5, 160(%rsp) vmovdqa .LCPI1_15(%rip), %xmm8 .LBB1_37: vpshufb %xmm8, %xmm2, %xmm3 vpclmulqdq $0, %xmm3, %xmm14, %xmm4 vpshufb %xmm8, %xmm11, %xmm5 vmovdqa 384(%rsp), %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm6 vpclmulqdq $1, %xmm5, %xmm0, %xmm7 vpshufb %xmm8, %xmm13, %xmm2 vmovdqa %xmm8, %xmm10 vpclmulqdq $16, %xmm5, %xmm0, %xmm8 vpxor (%rsp), %xmm2, %xmm2 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpshufb %xmm10, %xmm1, %xmm13 vpclmulqdq $1, %xmm3, %xmm14, %xmm11 vpshufb %xmm10, %xmm9, %xmm9 vpclmulqdq $16, %xmm3, %xmm14, %xmm12 vmovdqa 160(%rsp), %xmm0 vpshufb %xmm10, %xmm0, %xmm0 vmovdqa 352(%rsp), %xmm1 vpclmulqdq $0, %xmm0, %xmm1, %xmm10 vpxor %xmm11, %xmm12, %xmm11 vpclmulqdq $1, %xmm0, %xmm1, %xmm12 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm0, %xmm1, %xmm6 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $17, %xmm0, %xmm1, %xmm0 vpxor %xmm7, %xmm11, %xmm7 vpclmulqdq $17, %xmm3, %xmm14, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vmovdqa 336(%rsp), %xmm1 vpclmulqdq $0, %xmm9, %xmm1, %xmm5 vpxor %xmm6, %xmm12, %xmm6 vpclmulqdq $1, %xmm9, %xmm1, %xmm8 vpxor %xmm5, %xmm10, %xmm5 vpclmulqdq $16, %xmm9, %xmm1, %xmm10 vpxor %xmm5, %xmm4, %xmm4 vpclmulqdq $17, %xmm9, %xmm1, %xmm5 vpxor %xmm6, %xmm8, %xmm6 vpxor %xmm6, %xmm7, %xmm6 vpxor %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vmovdqa 320(%rsp), %xmm1 vpclmulqdq $0, %xmm13, %xmm1, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $1, %xmm13, %xmm1, %xmm4 vpxor %xmm4, %xmm10, %xmm4 vpclmulqdq $16, %xmm13, %xmm1, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $17, %xmm13, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vmovdqa 368(%rsp), %xmm5 vpclmulqdq $0, %xmm2, %xmm5, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $1, %xmm2, %xmm5, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm2, %xmm5, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $17, %xmm2, %xmm5, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpslldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpsrldq $8, %xmm3, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpbroadcastq .LCPI1_28(%rip), %xmm6 vpclmulqdq $16, %xmm6, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpshufd $78, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm6 movq %rax, %rdx movq %rcx, %r9 vmovdqa 128(%rsp), %xmm12 vmovdqa 192(%rsp), %xmm1 vmovdqa 64(%rsp), %xmm8 vmovdqa 112(%rsp), %xmm9 vmovdqa 176(%rsp), %xmm13 vmovdqa 96(%rsp), %xmm10 vmovdqa 224(%rsp), %xmm5 vmovdqa 208(%rsp), %xmm0 vmovdqa 48(%rsp), %xmm11 movq %r8, %r13 cmpq $16, %rbx jb .LBB1_32 .LBB1_41: vmovdqa 240(%rsp), %xmm3 vmovdqa 144(%rsp), %xmm14 .p2align 4, 0x90 .LBB1_42: vmovdqa .LCPI1_15(%rip), %xmm2 vmovdqa %xmm15, %xmm4 vmovdqa %xmm0, %xmm7 vmovdqa 272(%rsp), %xmm0 vmovdqa %xmm5, %xmm15 vmovdqa %xmm2, %xmm5 vpshufb %xmm2, %xmm14, %xmm2 vpxor %xmm2, %xmm12, %xmm2 vaesenc 304(%rsp), %xmm2, %xmm2 vaesenc %xmm3, %xmm2, %xmm2 vaesenc %xmm1, %xmm2, %xmm2 vaesenc 288(%rsp), %xmm2, %xmm2 vaesenc %xmm15, %xmm2, %xmm2 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm8, %xmm2, %xmm2 vaesenc 256(%rsp), %xmm2, %xmm2 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm7, %xmm2, %xmm2 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm13, %xmm2, %xmm2 vaesenc %xmm11, %xmm2, %xmm2 vaesenclast %xmm10, %xmm2, %xmm2 vpxor (%r9), %xmm2, %xmm2 vpshufb %xmm5, %xmm2, %xmm3 vpxor %xmm3, %xmm6, %xmm3 vmovdqa %xmm4, %xmm1 vmovdqa 16(%rsp), %xmm0 vpclmulqdq $1, %xmm3, %xmm0, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm5 vmovdqu %xmm2, (%rdx) vpclmulqdq $0, %xmm3, %xmm0, %xmm2 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 vpslldq $8, %xmm4, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpsrldq $8, %xmm4, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpbroadcastq .LCPI1_28(%rip), %xmm0 vpclmulqdq $16, %xmm0, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $16, %xmm0, %xmm2, %xmm4 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vmovdqa 240(%rsp), %xmm3 vpxor %xmm2, %xmm4, %xmm6 vmovdqa %xmm15, %xmm5 vmovdqa %xmm1, %xmm15 vmovdqa %xmm7, %xmm0 vmovdqa 192(%rsp), %xmm1 vmovdqa 48(%rsp), %xmm11 leaq 16(%r9), %rsi leaq 16(%rdx), %r14 addq $-16, %rbx vpaddd .LCPI1_18(%rip), %xmm14, %xmm14 movq %r14, %rdx movq %rsi, %r9 cmpq $15, %rbx ja .LBB1_42 .LBB1_33: vmovdqa %xmm6, %xmm4 vmovdqa %xmm14, 144(%rsp) testq %rbx, %rbx je .LBB1_34 vmovdqa %xmm4, (%rsp) vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 80(%rsp) leaq 80(%rsp), %rdi movq memcpy@GOTPCREL(%rip), %rbp movq %rbx, %rdx callq *%rbp vmovdqa 144(%rsp), %xmm0 vpshufb .LCPI1_15(%rip), %xmm0, %xmm0 vpxor 128(%rsp), %xmm0, %xmm0 vaesenc 304(%rsp), %xmm0, %xmm0 vaesenc 240(%rsp), %xmm0, %xmm0 vaesenc 192(%rsp), %xmm0, %xmm0 vaesenc 288(%rsp), %xmm0, %xmm0 vaesenc 224(%rsp), %xmm0, %xmm0 vaesenc 272(%rsp), %xmm0, %xmm0 vaesenc 64(%rsp), %xmm0, %xmm0 vaesenc 256(%rsp), %xmm0, %xmm0 vaesenc 32(%rsp), %xmm0, %xmm0 vaesenc 208(%rsp), %xmm0, %xmm0 vaesenc 112(%rsp), %xmm0, %xmm0 vaesenc 176(%rsp), %xmm0, %xmm0 vaesenc 48(%rsp), %xmm0, %xmm0 vaesenclast 96(%rsp), %xmm0, %xmm0 vpxor 80(%rsp), %xmm0, %xmm0 vmovdqa %xmm0, 160(%rsp) vmovdqa %xmm0, 80(%rsp) leaq 80(%rsp), %rsi movq %r14, %rdi movq %rbx, %rdx callq *%rbp testq %r15, %r15 je .LBB1_44 vmovaps 160(%rsp), %xmm0 vmovaps %xmm0, 416(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 80(%rsp) leaq 80(%rsp), %rdi leaq 416(%rsp), %rsi movq %rbx, %rdx callq *memcpy@GOTPCREL(%rip) vmovdqa 80(%rsp), %xmm0 movq %r13, %r8 .LBB1_46: vmovdqa 128(%rsp), %xmm12 vmovdqa 64(%rsp), %xmm8 vmovdqa 32(%rsp), %xmm15 vmovdqa 112(%rsp), %xmm9 vmovdqa 176(%rsp), %xmm13 vmovdqa 48(%rsp), %xmm11 vmovdqa 96(%rsp), %xmm10 vpbroadcastq .LCPI1_28(%rip), %xmm6 vmovdqa 16(%rsp), %xmm14 vmovdqa (%rsp), %xmm1 jmp .LBB1_47 .LBB1_34: movq %r13, %r8 vmovdqa 16(%rsp), %xmm14 vpbroadcastq .LCPI1_28(%rip), %xmm6 vmovdqa %xmm4, %xmm5 jmp .LBB1_48 .LBB1_44: movq %r13, %r8 vmovdqa 128(%rsp), %xmm12 vmovdqa 64(%rsp), %xmm8 vmovdqa 32(%rsp), %xmm15 vmovdqa 112(%rsp), %xmm9 vmovdqa 176(%rsp), %xmm13 vmovdqa 48(%rsp), %xmm11 vmovdqa 96(%rsp), %xmm10 vpbroadcastq .LCPI1_28(%rip), %xmm6 vmovdqa 16(%rsp), %xmm14 vmovdqa (%rsp), %xmm1 vmovdqa 160(%rsp), %xmm0 .LBB1_47: vpshufb .LCPI1_15(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm0, %xmm14, %xmm1 vpclmulqdq $1, %xmm0, %xmm14, %xmm2 vpclmulqdq $16, %xmm0, %xmm14, %xmm3 vpclmulqdq $17, %xmm0, %xmm14, %xmm0 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpclmulqdq $16, %xmm6, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm6, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm5 .LBB1_48: vmovq %r8, %xmm0 vmovq %r15, %xmm1 vpunpcklqdq %xmm0, %xmm1, %xmm0 vpsllq $3, %xmm0, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vpclmulqdq $0, %xmm0, %xmm14, %xmm1 vpclmulqdq $1, %xmm0, %xmm14, %xmm2 vpclmulqdq $16, %xmm0, %xmm14, %xmm3 vpclmulqdq $17, %xmm0, %xmm14, %xmm0 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm6, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm6, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpxor 400(%rsp), %xmm12, %xmm3 vaesenc 304(%rsp), %xmm3, %xmm3 vaesenc 240(%rsp), %xmm3, %xmm3 vaesenc 192(%rsp), %xmm3, %xmm3 vaesenc 288(%rsp), %xmm3, %xmm3 vaesenc 224(%rsp), %xmm3, %xmm3 vaesenc 272(%rsp), %xmm3, %xmm3 vaesenc %xmm8, %xmm3, %xmm3 vaesenc 256(%rsp), %xmm3, %xmm3 vaesenc %xmm15, %xmm3, %xmm3 vaesenc 208(%rsp), %xmm3, %xmm3 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm13, %xmm3, %xmm3 vaesenc %xmm11, %xmm3, %xmm3 vaesenclast %xmm10, %xmm3, %xmm3 vpshufb .LCPI1_25(%rip), %xmm2, %xmm2 vpshufb .LCPI1_26(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpshufb .LCPI1_15(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vmovdqu %xmm0, 32(%r12) movl $1, %eax .LBB1_49: addq $440, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .LBB1_25: .cfi_def_cfa_offset 496 vpbroadcastq .LCPI1_28(%rip), %xmm6 jmp .LBB1_48 .Lfunc_end1: .size haberdashery_aes256gcmdndkv2kc_haswell_encrypt, .Lfunc_end1-haberdashery_aes256gcmdndkv2kc_haswell_encrypt .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .p2align 4, 0x0 .LCPI2_0: .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 255 .byte 0 .LCPI2_1: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 224 .LCPI2_2: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 225 .LCPI2_3: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 226 .LCPI2_4: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 227 .LCPI2_5: .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 228 .LCPI2_6: .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .byte 13 .byte 14 .byte 15 .byte 12 .LCPI2_7: .quad 4294967297 .quad 4294967297 .LCPI2_14: .quad 274877907008 .quad 274877907008 .LCPI2_15: .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_16: .zero 8 .quad -4467570830351532032 .LCPI2_17: .byte 15 .byte 128 .byte 128 .byte 128 .byte 11 .byte 10 .byte 9 .byte 8 .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .LCPI2_18: .long 1 .long 0 .long 0 .long 0 .LCPI2_19: .long 2 .long 0 .long 0 .long 0 .LCPI2_20: .long 3 .long 0 .long 0 .long 0 .LCPI2_21: .long 4 .long 0 .long 0 .long 0 .LCPI2_22: .long 5 .long 0 .long 0 .long 0 .LCPI2_23: .long 6 .long 0 .long 0 .long 0 .LCPI2_24: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI2_25: .byte 7 .byte 6 .byte 5 .byte 4 .byte 3 .byte 2 .byte 1 .byte 0 .byte 15 .byte 14 .byte 13 .byte 12 .byte 11 .byte 10 .byte 9 .byte 8 .LCPI2_26: .zero 16 .section .rodata.cst4,"aM",@progbits,4 .p2align 2, 0x0 .LCPI2_8: .long 0x00000002 .LCPI2_9: .long 0x0c0f0e0d .LCPI2_10: .long 0x00000004 .LCPI2_11: .long 0x00000008 .LCPI2_12: .long 0x00000010 .LCPI2_13: .long 0x00000020 .section .rodata.cst8,"aM",@progbits,8 .p2align 3, 0x0 .LCPI2_27: .quad -4467570830351532032 .section .text.haberdashery_aes256gcmdndkv2kc_haswell_decrypt,"ax",@progbits .globl haberdashery_aes256gcmdndkv2kc_haswell_decrypt .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2kc_haswell_decrypt,@function haberdashery_aes256gcmdndkv2kc_haswell_decrypt: .cfi_startproc pushq %rbp .cfi_def_cfa_offset 16 pushq %r15 .cfi_def_cfa_offset 24 pushq %r14 .cfi_def_cfa_offset 32 pushq %r13 .cfi_def_cfa_offset 40 pushq %r12 .cfi_def_cfa_offset 48 pushq %rbx .cfi_def_cfa_offset 56 subq $488, %rsp .cfi_def_cfa_offset 544 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 .cfi_offset %rbp, -16 movq 544(%rsp), %r15 xorl %eax, %eax cmpq 576(%rsp), %r15 jne .LBB2_48 movq %r15, %r10 shrq $5, %r10 cmpq $2147483646, %r10 ja .LBB2_48 movabsq $2305843009213693950, %r10 cmpq %r10, %r8 ja .LBB2_48 cmpq $24, %rdx jne .LBB2_48 cmpq $48, 560(%rsp) jne .LBB2_48 vmovdqu (%rsi), %xmm0 vmovdqa %xmm0, 320(%rsp) vpand .LCPI2_0(%rip), %xmm0, %xmm0 vpxor (%rdi), %xmm0, %xmm14 movq 552(%rsp), %r12 vpxor .LCPI2_1(%rip), %xmm14, %xmm0 vmovdqa 16(%rdi), %xmm2 vmovdqa %xmm2, 64(%rsp) vmovdqa 32(%rdi), %xmm1 vmovdqa 48(%rdi), %xmm15 vmovdqa 64(%rdi), %xmm3 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm1, %xmm0, %xmm0 vmovdqa %xmm1, %xmm2 vmovdqa %xmm1, (%rsp) vaesenc %xmm15, %xmm0, %xmm0 vaesenc %xmm3, %xmm0, %xmm0 vmovdqa 80(%rdi), %xmm4 vaesenc %xmm4, %xmm0, %xmm0 vmovdqa 96(%rdi), %xmm5 vaesenc %xmm5, %xmm0, %xmm0 vmovdqa 112(%rdi), %xmm6 vaesenc %xmm6, %xmm0, %xmm0 vmovdqa 128(%rdi), %xmm7 vaesenc %xmm7, %xmm0, %xmm0 vmovdqa 144(%rdi), %xmm8 vaesenc %xmm8, %xmm0, %xmm0 vmovdqa 160(%rdi), %xmm9 vaesenc %xmm9, %xmm0, %xmm0 vmovdqa 176(%rdi), %xmm10 vaesenc %xmm10, %xmm0, %xmm0 vmovdqa 192(%rdi), %xmm11 vaesenc %xmm11, %xmm0, %xmm0 vmovdqa 208(%rdi), %xmm12 vaesenc %xmm12, %xmm0, %xmm0 vmovdqa 224(%rdi), %xmm13 vpxor .LCPI2_4(%rip), %xmm14, %xmm1 vaesenclast %xmm13, %xmm0, %xmm0 vmovdqa %xmm0, 16(%rsp) vmovdqa 64(%rsp), %xmm0 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm2, %xmm1, %xmm1 vaesenc %xmm15, %xmm1, %xmm1 vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm5, %xmm1, %xmm1 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm10, %xmm1, %xmm1 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm12, %xmm1, %xmm2 vmovdqa %xmm14, 32(%rsp) vpxor .LCPI2_5(%rip), %xmm14, %xmm1 vaesenclast %xmm13, %xmm2, %xmm2 vaesenc %xmm0, %xmm1, %xmm0 vaesenc (%rsp), %xmm0, %xmm0 vmovdqa %xmm15, 48(%rsp) vaesenc %xmm15, %xmm0, %xmm0 vmovdqa %xmm3, 112(%rsp) vaesenc %xmm3, %xmm0, %xmm0 vmovdqa %xmm4, 272(%rsp) vaesenc %xmm4, %xmm0, %xmm0 vmovdqa %xmm5, 144(%rsp) vaesenc %xmm5, %xmm0, %xmm0 vmovdqa %xmm6, 256(%rsp) vaesenc %xmm6, %xmm0, %xmm0 vmovdqa %xmm7, 128(%rsp) vaesenc %xmm7, %xmm0, %xmm0 vmovdqa %xmm8, 416(%rsp) vaesenc %xmm8, %xmm0, %xmm0 vmovdqa %xmm9, 400(%rsp) vaesenc %xmm9, %xmm0, %xmm0 vmovdqa %xmm10, 384(%rsp) vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm11, %xmm0, %xmm0 vmovdqa %xmm12, 192(%rsp) vaesenc %xmm12, %xmm0, %xmm0 vpxor (%r12), %xmm2, %xmm1 vmovdqa %xmm13, 96(%rsp) vaesenclast %xmm13, %xmm0, %xmm0 vmovdqa 16(%rsp), %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor 16(%r12), %xmm0, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vpor %xmm1, %xmm0, %xmm0 vptest %xmm0, %xmm0 jne .LBB2_48 vmovdqa 32(%rsp), %xmm1 vpxor .LCPI2_2(%rip), %xmm1, %xmm0 vmovdqa 64(%rsp), %xmm2 vaesenc %xmm2, %xmm0, %xmm0 vpxor .LCPI2_3(%rip), %xmm1, %xmm1 vaesenc %xmm2, %xmm1, %xmm1 vmovdqa (%rsp), %xmm2 vaesenc %xmm2, %xmm0, %xmm0 vaesenc %xmm2, %xmm1, %xmm1 vmovdqa 48(%rsp), %xmm2 vaesenc %xmm2, %xmm0, %xmm0 vmovdqa 112(%rsp), %xmm3 vaesenc %xmm3, %xmm0, %xmm0 vmovdqa 272(%rsp), %xmm4 vaesenc %xmm4, %xmm0, %xmm0 vmovdqa 144(%rsp), %xmm5 vaesenc %xmm5, %xmm0, %xmm0 vmovdqa 256(%rsp), %xmm6 vaesenc %xmm6, %xmm0, %xmm0 vmovdqa 128(%rsp), %xmm7 vaesenc %xmm7, %xmm0, %xmm0 vmovdqa 416(%rsp), %xmm8 vaesenc %xmm8, %xmm0, %xmm0 vmovdqa 400(%rsp), %xmm9 vaesenc %xmm9, %xmm0, %xmm0 vmovdqa 384(%rsp), %xmm10 vaesenc %xmm10, %xmm0, %xmm0 vaesenc %xmm11, %xmm0, %xmm0 vmovdqa 192(%rsp), %xmm12 vaesenc %xmm12, %xmm0, %xmm0 vmovdqa 96(%rsp), %xmm13 vaesenclast %xmm13, %xmm0, %xmm0 vaesenc %xmm2, %xmm1, %xmm1 vaesenc %xmm3, %xmm1, %xmm1 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm5, %xmm1, %xmm1 vaesenc %xmm6, %xmm1, %xmm1 vaesenc %xmm7, %xmm1, %xmm1 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm10, %xmm1, %xmm1 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm12, %xmm1, %xmm1 vaesenclast %xmm13, %xmm1, %xmm1 vmovdqa 16(%rsp), %xmm2 vpxor %xmm2, %xmm0, %xmm4 vpxor %xmm2, %xmm1, %xmm13 vpslldq $4, %xmm4, %xmm0 vpslldq $8, %xmm4, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpslldq $12, %xmm4, %xmm2 vpbroadcastd .LCPI2_9(%rip), %xmm1 vpshufb %xmm1, %xmm13, %xmm3 vaesenclast .LCPI2_7(%rip), %xmm3, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpxor %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm7 vmovdqa %xmm4, 272(%rsp) vaesenc %xmm13, %xmm4, %xmm2 vpslldq $4, %xmm13, %xmm0 vpslldq $8, %xmm13, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpslldq $12, %xmm13, %xmm3 vpxor %xmm3, %xmm0, %xmm3 vpshufd $255, %xmm7, %xmm4 vpxor %xmm0, %xmm0, %xmm0 vaesenclast %xmm0, %xmm4, %xmm4 vpxor %xmm3, %xmm13, %xmm3 vpxor %xmm3, %xmm4, %xmm8 vbroadcastss .LCPI2_8(%rip), %xmm4 vbroadcastss .LCPI2_9(%rip), %xmm3 vmovdqa %xmm7, 32(%rsp) #APP vaesenc %xmm7, %xmm2, %xmm2 vpslldq $4, %xmm7, %xmm5 vpslldq $8, %xmm7, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpslldq $12, %xmm7, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpxor %xmm7, %xmm5, %xmm5 vpshufb %xmm3, %xmm8, %xmm11 vaesenclast %xmm4, %xmm11, %xmm11 vpxor %xmm5, %xmm11, %xmm11 #NO_APP vmovdqa %xmm8, 96(%rsp) #APP vaesenc %xmm8, %xmm2, %xmm2 vpslldq $4, %xmm8, %xmm4 vpslldq $8, %xmm8, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm8, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm8, %xmm4 vpshufd $255, %xmm11, %xmm10 vaesenclast %xmm0, %xmm10, %xmm10 vpxor %xmm4, %xmm10, %xmm10 #NO_APP vbroadcastss .LCPI2_10(%rip), %xmm4 vmovaps %xmm11, 192(%rsp) #APP vaesenc %xmm11, %xmm2, %xmm2 vpslldq $4, %xmm11, %xmm5 vpslldq $8, %xmm11, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpslldq $12, %xmm11, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpxor %xmm5, %xmm11, %xmm5 vpshufb %xmm3, %xmm10, %xmm9 vaesenclast %xmm4, %xmm9, %xmm9 vpxor %xmm5, %xmm9, %xmm9 #NO_APP #APP vaesenc %xmm10, %xmm2, %xmm2 vpslldq $4, %xmm10, %xmm4 vpslldq $8, %xmm10, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm10, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm10, %xmm4 vpshufd $255, %xmm9, %xmm11 vaesenclast %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm11, %xmm11 #NO_APP vbroadcastss .LCPI2_11(%rip), %xmm4 #APP vaesenc %xmm9, %xmm2, %xmm2 vpslldq $4, %xmm9, %xmm5 vpslldq $8, %xmm9, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpslldq $12, %xmm9, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpxor %xmm5, %xmm9, %xmm5 vpshufb %xmm3, %xmm11, %xmm8 vaesenclast %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm8, %xmm8 #NO_APP #APP vaesenc %xmm11, %xmm2, %xmm2 vpslldq $4, %xmm11, %xmm4 vpslldq $8, %xmm11, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm11, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm4, %xmm11, %xmm4 vpshufd $255, %xmm8, %xmm7 vaesenclast %xmm0, %xmm7, %xmm7 vpxor %xmm4, %xmm7, %xmm7 #NO_APP vbroadcastss .LCPI2_12(%rip), %xmm4 vmovdqa %xmm8, 256(%rsp) #APP vaesenc %xmm8, %xmm2, %xmm2 vpslldq $4, %xmm8, %xmm5 vpslldq $8, %xmm8, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpslldq $12, %xmm8, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpxor %xmm5, %xmm8, %xmm5 vpshufb %xmm3, %xmm7, %xmm12 vaesenclast %xmm4, %xmm12, %xmm12 vpxor %xmm5, %xmm12, %xmm12 #NO_APP vmovaps %xmm7, 240(%rsp) #APP vaesenc %xmm7, %xmm2, %xmm2 vpslldq $4, %xmm7, %xmm4 vpslldq $8, %xmm7, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpslldq $12, %xmm7, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpxor %xmm7, %xmm4, %xmm4 vpshufd $255, %xmm12, %xmm14 vaesenclast %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm14, %xmm14 #NO_APP vbroadcastss .LCPI2_13(%rip), %xmm4 vmovaps %xmm12, 128(%rsp) #APP vaesenc %xmm12, %xmm2, %xmm2 vpslldq $4, %xmm12, %xmm5 vpslldq $8, %xmm12, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpslldq $12, %xmm12, %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpxor %xmm5, %xmm12, %xmm5 vpshufb %xmm3, %xmm14, %xmm15 vaesenclast %xmm4, %xmm15, %xmm15 vpxor %xmm5, %xmm15, %xmm15 #NO_APP vpslldq $4, %xmm14, %xmm3 vpunpcklqdq %xmm14, %xmm0, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vinsertps $55, %xmm14, %xmm0, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpshufd $255, %xmm15, %xmm4 vaesenclast %xmm0, %xmm4, %xmm4 vpxor %xmm3, %xmm14, %xmm3 vpxor %xmm3, %xmm4, %xmm5 vpslldq $4, %xmm15, %xmm3 vpunpcklqdq %xmm15, %xmm0, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vinsertps $55, %xmm15, %xmm0, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpshufb %xmm1, %xmm5, %xmm1 vaesenclast .LCPI2_14(%rip), %xmm1, %xmm1 vpxor %xmm3, %xmm15, %xmm3 vpxor %xmm3, %xmm1, %xmm6 vmovaps %xmm14, 48(%rsp) vaesenc %xmm14, %xmm2, %xmm1 vmovaps %xmm15, 304(%rsp) vaesenc %xmm15, %xmm1, %xmm1 vmovdqa %xmm5, 288(%rsp) vaesenc %xmm5, %xmm1, %xmm1 vaesenclast %xmm6, %xmm1, %xmm1 vpshufb .LCPI2_15(%rip), %xmm1, %xmm1 vpsrlq $63, %xmm1, %xmm2 vpaddq %xmm1, %xmm1, %xmm1 vpshufd $78, %xmm2, %xmm3 vpor %xmm3, %xmm1, %xmm1 vpblendd $12, %xmm2, %xmm0, %xmm0 vpsllq $63, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpsllq $62, %xmm0, %xmm2 vpsllq $57, %xmm0, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpxor %xmm0, %xmm1, %xmm15 vpclmulqdq $0, %xmm15, %xmm15, %xmm0 vpbroadcastq .LCPI2_27(%rip), %xmm14 vpclmulqdq $16, %xmm14, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $17, %xmm15, %xmm15, %xmm1 vpshufd $78, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm14, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm7 vpclmulqdq $16, %xmm15, %xmm7, %xmm0 vpclmulqdq $1, %xmm15, %xmm7, %xmm1 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $0, %xmm15, %xmm7, %xmm1 vpslldq $8, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm14, %xmm1, %xmm2 vpshufd $78, %xmm1, %xmm1 vpclmulqdq $17, %xmm15, %xmm7, %xmm3 vpxor %xmm1, %xmm2, %xmm1 vpsrldq $8, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpshufd $78, %xmm1, %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $16, %xmm14, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm5 vpclmulqdq $0, %xmm7, %xmm7, %xmm0 vpclmulqdq $16, %xmm14, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpclmulqdq $16, %xmm14, %xmm0, %xmm1 vpshufd $78, %xmm0, %xmm0 vpclmulqdq $17, %xmm7, %xmm7, %xmm2 vpxor %xmm0, %xmm2, %xmm0 vpclmulqdq $0, %xmm5, %xmm5, %xmm2 vpxor %xmm1, %xmm0, %xmm12 vpclmulqdq $16, %xmm14, %xmm2, %xmm0 vpshufd $78, %xmm2, %xmm1 vpclmulqdq $16, %xmm15, %xmm12, %xmm2 vpxor %xmm1, %xmm0, %xmm0 vpclmulqdq $1, %xmm15, %xmm12, %xmm1 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm14, %xmm0, %xmm2 vpclmulqdq $0, %xmm15, %xmm12, %xmm3 vpslldq $8, %xmm1, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vmovdqa %xmm5, 448(%rsp) vpclmulqdq $17, %xmm5, %xmm5, %xmm4 vpshufd $78, %xmm0, %xmm0 vpclmulqdq $16, %xmm14, %xmm3, %xmm5 vpxor %xmm0, %xmm4, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vmovdqa %xmm0, 432(%rsp) vpshufd $78, %xmm3, %xmm0 vpxor %xmm0, %xmm5, %xmm0 vmovdqa %xmm12, 368(%rsp) vpsrldq $8, %xmm1, %xmm1 vmovdqa %xmm15, 16(%rsp) vpclmulqdq $17, %xmm15, %xmm12, %xmm2 vpxor %xmm1, %xmm2, %xmm1 vmovdqa 320(%rsp), %xmm2 vpextrb $15, %xmm2, %edx vpshufd $78, %xmm0, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $16, %xmm14, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vmovdqa %xmm0, 352(%rsp) movzbl 23(%rsi), %edi movzbl 17(%rsi), %r10d movzbl 16(%rsi), %r11d shll $8, %r11d orl %edx, %r11d shll $16, %r10d orl %r11d, %r10d movzbl 18(%rsi), %edx shll $24, %edx orl %r10d, %edx vmovd %edx, %xmm0 vpinsrd $1, 19(%rsi), %xmm0, %xmm0 vpinsrd $2, %edi, %xmm0, %xmm0 movl $16777216, %edx vpinsrd $3, %edx, %xmm0, %xmm15 testq %r8, %r8 vmovdqa %xmm6, 112(%rsp) vmovdqa %xmm13, 176(%rsp) vmovdqa %xmm10, 144(%rsp) vmovdqa %xmm9, 224(%rsp) vmovdqa %xmm11, 160(%rsp) vmovdqa %xmm15, 208(%rsp) je .LBB2_40 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) cmpq $96, %r8 jb .LBB2_8 vmovdqu 32(%rcx), %xmm1 vmovdqu 48(%rcx), %xmm2 vmovdqu 64(%rcx), %xmm3 vmovdqu 80(%rcx), %xmm4 vmovdqa .LCPI2_15(%rip), %xmm0 vpshufb %xmm0, %xmm4, %xmm4 vmovdqa 16(%rsp), %xmm8 vpclmulqdq $0, %xmm4, %xmm8, %xmm5 vpshufb %xmm0, %xmm1, %xmm6 vmovdqa %xmm7, %xmm9 vpclmulqdq $1, %xmm4, %xmm8, %xmm7 vpshufb %xmm0, %xmm2, %xmm1 vpclmulqdq $16, %xmm4, %xmm8, %xmm2 vpshufb %xmm0, %xmm3, %xmm3 vpclmulqdq $17, %xmm4, %xmm8, %xmm4 vpxor %xmm7, %xmm2, %xmm2 vpclmulqdq $0, %xmm3, %xmm9, %xmm7 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $1, %xmm3, %xmm9, %xmm7 vpxor %xmm7, %xmm2, %xmm2 vpclmulqdq $16, %xmm3, %xmm9, %xmm7 vpxor %xmm7, %xmm2, %xmm2 vmovdqa %xmm9, %xmm10 vpclmulqdq $17, %xmm3, %xmm9, %xmm3 vpxor %xmm4, %xmm3, %xmm3 vmovdqa 448(%rsp), %xmm11 vpclmulqdq $0, %xmm1, %xmm11, %xmm4 vpclmulqdq $1, %xmm1, %xmm11, %xmm7 vpxor %xmm7, %xmm2, %xmm2 vmovdqa 368(%rsp), %xmm8 vpclmulqdq $0, %xmm6, %xmm8, %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpclmulqdq $16, %xmm1, %xmm11, %xmm7 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $1, %xmm6, %xmm8, %xmm5 vpxor %xmm5, %xmm7, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $16, %xmm6, %xmm8, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $17, %xmm6, %xmm8, %xmm5 vmovdqu (%rcx), %xmm6 vpxor %xmm5, %xmm3, %xmm3 vmovdqu 16(%rcx), %xmm5 vpshufb %xmm0, %xmm6, %xmm6 vpshufb %xmm0, %xmm5, %xmm5 vpclmulqdq $17, %xmm1, %xmm11, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vmovdqa 352(%rsp), %xmm8 vpclmulqdq $0, %xmm5, %xmm8, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $1, %xmm5, %xmm8, %xmm4 vpxor %xmm4, %xmm2, %xmm4 vpclmulqdq $16, %xmm5, %xmm8, %xmm7 vpclmulqdq $17, %xmm5, %xmm8, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vmovdqa 432(%rsp), %xmm14 vpclmulqdq $0, %xmm6, %xmm14, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $1, %xmm6, %xmm14, %xmm3 vpxor %xmm3, %xmm7, %xmm3 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $16, %xmm6, %xmm14, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $17, %xmm6, %xmm14, %xmm4 vpxor %xmm4, %xmm1, %xmm1 addq $96, %rcx leaq -96(%r8), %rsi cmpq $96, %rsi jb .LBB2_14 vmovdqa 368(%rsp), %xmm12 vmovdqa 352(%rsp), %xmm13 .p2align 4, 0x90 .LBB2_13: vmovdqu (%rcx), %xmm5 vmovdqu 32(%rcx), %xmm6 vmovdqu 48(%rcx), %xmm4 vmovdqu 64(%rcx), %xmm7 vmovdqu 80(%rcx), %xmm8 vpslldq $8, %xmm3, %xmm9 vpxor %xmm2, %xmm9, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpbroadcastq .LCPI2_27(%rip), %xmm15 vpclmulqdq $16, %xmm15, %xmm2, %xmm9 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm9, %xmm2 vpclmulqdq $16, %xmm15, %xmm2, %xmm9 vpxor %xmm3, %xmm1, %xmm1 vpshufd $78, %xmm2, %xmm2 vpshufb %xmm0, %xmm5, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpshufb %xmm0, %xmm8, %xmm3 vmovdqa 16(%rsp), %xmm15 vpclmulqdq $0, %xmm3, %xmm15, %xmm5 vpxor %xmm2, %xmm1, %xmm1 vpclmulqdq $1, %xmm3, %xmm15, %xmm8 vpxor %xmm1, %xmm9, %xmm1 vpclmulqdq $16, %xmm3, %xmm15, %xmm9 vpshufb %xmm0, %xmm6, %xmm2 vpclmulqdq $17, %xmm3, %xmm15, %xmm3 vpshufb %xmm0, %xmm7, %xmm6 vpclmulqdq $0, %xmm6, %xmm10, %xmm7 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $1, %xmm6, %xmm10, %xmm9 vpxor %xmm5, %xmm7, %xmm5 vpclmulqdq $16, %xmm6, %xmm10, %xmm7 vpshufb %xmm0, %xmm4, %xmm4 vpclmulqdq $17, %xmm6, %xmm10, %xmm6 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $0, %xmm4, %xmm11, %xmm9 vpxor %xmm7, %xmm8, %xmm7 vpclmulqdq $1, %xmm4, %xmm11, %xmm8 vpxor %xmm3, %xmm6, %xmm3 vpclmulqdq $16, %xmm4, %xmm11, %xmm6 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $0, %xmm2, %xmm12, %xmm8 vpxor %xmm8, %xmm9, %xmm8 vpclmulqdq $17, %xmm4, %xmm11, %xmm4 vpxor %xmm5, %xmm8, %xmm5 vpclmulqdq $1, %xmm2, %xmm12, %xmm8 vpxor %xmm6, %xmm8, %xmm6 vpclmulqdq $17, %xmm2, %xmm12, %xmm8 vpxor %xmm6, %xmm7, %xmm6 vpxor %xmm4, %xmm8, %xmm4 vmovdqu 16(%rcx), %xmm7 vpshufb %xmm0, %xmm7, %xmm7 vpclmulqdq $16, %xmm2, %xmm12, %xmm2 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $0, %xmm7, %xmm13, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpclmulqdq $1, %xmm7, %xmm13, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpclmulqdq $16, %xmm7, %xmm13, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpxor %xmm2, %xmm6, %xmm5 vpclmulqdq $17, %xmm7, %xmm13, %xmm2 vpxor %xmm2, %xmm3, %xmm6 vpclmulqdq $0, %xmm1, %xmm14, %xmm2 vpxor %xmm2, %xmm4, %xmm2 vpclmulqdq $1, %xmm1, %xmm14, %xmm3 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $16, %xmm1, %xmm14, %xmm4 vpxor %xmm4, %xmm3, %xmm3 vpclmulqdq $17, %xmm1, %xmm14, %xmm1 vpxor %xmm1, %xmm6, %xmm1 addq $96, %rcx addq $-96, %rsi cmpq $95, %rsi ja .LBB2_13 .LBB2_14: vpslldq $8, %xmm3, %xmm0 vpxor %xmm0, %xmm2, %xmm0 vpsrldq $8, %xmm3, %xmm2 vpbroadcastq .LCPI2_27(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm0, %xmm3 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vpclmulqdq $16, %xmm4, %xmm0, %xmm3 vpxor %xmm2, %xmm1, %xmm1 vpshufd $78, %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm3, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) vmovdqa 224(%rsp), %xmm9 vmovdqa 112(%rsp), %xmm6 vmovdqa 16(%rsp), %xmm15 vmovdqa 32(%rsp), %xmm5 vmovdqa %xmm10, %xmm7 vmovdqa 160(%rsp), %xmm11 vmovdqa 176(%rsp), %xmm13 cmpq $16, %rsi jae .LBB2_15 .LBB2_10: movq %rsi, %rdx testq %rdx, %rdx jne .LBB2_26 jmp .LBB2_22 .LBB2_40: vmovdqa %xmm11, %xmm2 vmovdqa %xmm13, %xmm10 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, (%rsp) xorl %r8d, %r8d testq %r15, %r15 vmovdqa 48(%rsp), %xmm4 vmovdqa 16(%rsp), %xmm14 vmovdqa 32(%rsp), %xmm5 vmovdqa 96(%rsp), %xmm12 jne .LBB2_29 jmp .LBB2_41 .LBB2_8: movq %r8, %rsi vmovdqa 16(%rsp), %xmm15 vmovdqa 32(%rsp), %xmm5 cmpq $16, %rsi jb .LBB2_10 .LBB2_15: leaq -16(%rsi), %rdx testb $16, %dl je .LBB2_16 cmpq $16, %rdx jae .LBB2_18 .LBB2_21: testq %rdx, %rdx je .LBB2_22 .LBB2_26: vmovdqa %xmm7, 336(%rsp) movq %r9, %rbx vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 80(%rsp) leaq 80(%rsp), %rdi movq %rcx, %rsi movq %r8, %r14 callq *memcpy@GOTPCREL(%rip) movq %r14, %r8 vmovdqa 80(%rsp), %xmm0 shlq $3, %r8 testq %r15, %r15 je .LBB2_24 movabsq $-68719476704, %rax leaq (%r15,%rax), %rcx incq %rax cmpq %rax, %rcx movl $0, %eax vmovdqa 176(%rsp), %xmm10 vmovdqa 32(%rsp), %xmm5 vmovdqa 96(%rsp), %xmm11 vmovdqa 224(%rsp), %xmm9 vmovdqa 160(%rsp), %xmm2 vmovdqa 48(%rsp), %xmm4 vmovdqa 112(%rsp), %xmm6 vmovdqa 16(%rsp), %xmm14 vmovdqa 208(%rsp), %xmm15 jb .LBB2_48 movq %rbx, %r9 vpshufb .LCPI2_15(%rip), %xmm0, %xmm0 vpxor (%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm14, %xmm1 vpclmulqdq $1, %xmm0, %xmm14, %xmm7 vpclmulqdq $16, %xmm0, %xmm14, %xmm3 vpclmulqdq $17, %xmm0, %xmm14, %xmm0 vpxor %xmm7, %xmm3, %xmm7 vpslldq $8, %xmm7, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm7, %xmm7 vpbroadcastq .LCPI2_27(%rip), %xmm3 vmovdqa %xmm11, %xmm12 vmovdqa %xmm5, %xmm11 vmovdqa %xmm3, %xmm5 vpclmulqdq $16, %xmm3, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm5, %xmm1, %xmm3 vmovdqa %xmm11, %xmm5 vpxor %xmm7, %xmm0, %xmm0 vmovdqa 336(%rsp), %xmm7 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vmovdqa %xmm0, (%rsp) jmp .LBB2_29 .LBB2_16: vmovdqu (%rcx), %xmm0 vpshufb .LCPI2_15(%rip), %xmm0, %xmm0 vpxor (%rsp), %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm15, %xmm1 vpclmulqdq $1, %xmm0, %xmm15, %xmm2 vpclmulqdq $16, %xmm0, %xmm15, %xmm3 addq $16, %rcx vpclmulqdq $17, %xmm0, %xmm15, %xmm0 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpbroadcastq .LCPI2_27(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm4, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vmovdqa %xmm0, (%rsp) movq %rdx, %rsi cmpq $16, %rdx jb .LBB2_21 .LBB2_18: vmovdqa .LCPI2_15(%rip), %xmm0 vpbroadcastq .LCPI2_27(%rip), %xmm14 vmovdqa 16(%rsp), %xmm15 vmovdqa (%rsp), %xmm2 .p2align 4, 0x90 .LBB2_19: vmovdqu (%rcx), %xmm1 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpclmulqdq $0, %xmm1, %xmm15, %xmm2 vpclmulqdq $1, %xmm1, %xmm15, %xmm3 vmovdqu 16(%rcx), %xmm4 vpclmulqdq $16, %xmm1, %xmm15, %xmm5 vpxor %xmm3, %xmm5, %xmm3 vpclmulqdq $17, %xmm1, %xmm15, %xmm1 vpslldq $8, %xmm3, %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm14, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm14, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpshufb %xmm0, %xmm4, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $0, %xmm1, %xmm15, %xmm2 addq $32, %rcx vpclmulqdq $1, %xmm1, %xmm15, %xmm3 addq $-32, %rsi vpclmulqdq $16, %xmm1, %xmm15, %xmm4 vpxor %xmm3, %xmm4, %xmm3 vpclmulqdq $17, %xmm1, %xmm15, %xmm1 vpslldq $8, %xmm3, %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsrldq $8, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm14, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm3, %xmm2 vpclmulqdq $16, %xmm14, %xmm2, %xmm3 vpshufd $78, %xmm2, %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm2 cmpq $15, %rsi ja .LBB2_19 vmovdqa %xmm2, (%rsp) movq %rsi, %rdx vmovdqa 32(%rsp), %xmm5 testq %rdx, %rdx jne .LBB2_26 .LBB2_22: vmovdqa %xmm11, %xmm2 vmovdqa %xmm13, %xmm10 shlq $3, %r8 testq %r15, %r15 vmovdqa 48(%rsp), %xmm4 vmovdqa 208(%rsp), %xmm15 je .LBB2_23 movabsq $-68719476704, %rcx leaq (%r15,%rcx), %rdx incq %rcx cmpq %rcx, %rdx vmovdqa 96(%rsp), %xmm12 jb .LBB2_48 .LBB2_29: vpshufb .LCPI2_17(%rip), %xmm15, %xmm0 movq 568(%rsp), %rax vpaddd .LCPI2_18(%rip), %xmm0, %xmm1 cmpq $96, %r15 jb .LBB2_30 movq %r15, %rbx vmovdqa %xmm7, 336(%rsp) vmovdqa (%rsp), %xmm11 .p2align 4, 0x90 .LBB2_34: vmovdqu (%r9), %xmm4 vmovdqa %xmm4, 416(%rsp) vmovups 32(%r9), %xmm0 vmovaps %xmm0, (%rsp) vmovups 48(%r9), %xmm0 vmovaps %xmm0, 64(%rsp) vmovdqu 64(%r9), %xmm9 vmovdqa %xmm9, 400(%rsp) vmovdqu 80(%r9), %xmm8 vmovdqa %xmm8, 320(%rsp) vmovdqa .LCPI2_15(%rip), %xmm12 vpshufb %xmm12, %xmm1, %xmm0 vmovdqa %xmm1, %xmm10 vpaddd .LCPI2_18(%rip), %xmm1, %xmm1 vpshufb %xmm12, %xmm1, %xmm1 vpaddd .LCPI2_19(%rip), %xmm10, %xmm2 vpshufb %xmm12, %xmm2, %xmm2 vpaddd .LCPI2_20(%rip), %xmm10, %xmm3 vpshufb %xmm12, %xmm3, %xmm3 vpaddd .LCPI2_21(%rip), %xmm10, %xmm5 vpshufb %xmm12, %xmm5, %xmm5 vpaddd .LCPI2_22(%rip), %xmm10, %xmm6 vpshufb %xmm12, %xmm6, %xmm6 vpshufb %xmm12, %xmm4, %xmm7 vpxor %xmm7, %xmm11, %xmm4 vmovdqa %xmm4, 384(%rsp) vpshufb %xmm12, %xmm8, %xmm4 vmovdqa 272(%rsp), %xmm7 vpxor %xmm0, %xmm7, %xmm14 vpxor %xmm1, %xmm7, %xmm15 vpxor %xmm2, %xmm7, %xmm1 vpxor %xmm3, %xmm7, %xmm2 vpxor %xmm5, %xmm7, %xmm3 vpxor %xmm6, %xmm7, %xmm13 vmovaps 176(%rsp), %xmm0 #APP vaesenc %xmm0, %xmm14, %xmm14 vaesenc %xmm0, %xmm15, %xmm15 vaesenc %xmm0, %xmm1, %xmm1 vaesenc %xmm0, %xmm2, %xmm2 vaesenc %xmm0, %xmm3, %xmm3 vaesenc %xmm0, %xmm13, %xmm13 #NO_APP vpxor %xmm5, %xmm5, %xmm5 vpxor %xmm6, %xmm6, %xmm6 vpxor %xmm7, %xmm7, %xmm7 vmovaps 32(%rsp), %xmm8 vmovaps 16(%rsp), %xmm11 #APP vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm13, %xmm13 vpclmulqdq $16, %xmm11, %xmm4, %xmm0 vpxor %xmm0, %xmm5, %xmm5 vpclmulqdq $0, %xmm11, %xmm4, %xmm0 vpxor %xmm0, %xmm7, %xmm7 vpclmulqdq $17, %xmm11, %xmm4, %xmm0 vpxor %xmm0, %xmm6, %xmm6 vpclmulqdq $1, %xmm11, %xmm4, %xmm0 vpxor %xmm0, %xmm5, %xmm5 #NO_APP vpshufb %xmm12, %xmm9, %xmm0 vmovaps 96(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vmovaps 192(%rsp), %xmm8 vmovaps 336(%rsp), %xmm11 #APP vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm13, %xmm13 vpclmulqdq $16, %xmm11, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 vpclmulqdq $0, %xmm11, %xmm0, %xmm4 vpxor %xmm4, %xmm7, %xmm7 vpclmulqdq $17, %xmm11, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm6 vpclmulqdq $1, %xmm11, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 #NO_APP vmovdqa 64(%rsp), %xmm0 vpshufb %xmm12, %xmm0, %xmm0 vmovaps 144(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vmovaps 448(%rsp), %xmm8 vmovdqa 224(%rsp), %xmm9 #APP vaesenc %xmm9, %xmm14, %xmm14 vaesenc %xmm9, %xmm15, %xmm15 vaesenc %xmm9, %xmm1, %xmm1 vaesenc %xmm9, %xmm2, %xmm2 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm9, %xmm13, %xmm13 vpclmulqdq $16, %xmm8, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 vpclmulqdq $0, %xmm8, %xmm0, %xmm4 vpxor %xmm4, %xmm7, %xmm7 vpclmulqdq $17, %xmm8, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm6 vpclmulqdq $1, %xmm8, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 #NO_APP vmovdqa (%rsp), %xmm0 vpshufb %xmm12, %xmm0, %xmm0 vmovaps 160(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vmovaps 256(%rsp), %xmm8 vmovaps 368(%rsp), %xmm11 #APP vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm13, %xmm13 vpclmulqdq $16, %xmm11, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 vpclmulqdq $0, %xmm11, %xmm0, %xmm4 vpxor %xmm4, %xmm7, %xmm7 vpclmulqdq $17, %xmm11, %xmm0, %xmm4 vpxor %xmm4, %xmm6, %xmm6 vpclmulqdq $1, %xmm11, %xmm0, %xmm4 vpxor %xmm4, %xmm5, %xmm5 #NO_APP vmovdqu 16(%r9), %xmm0 vmovaps 240(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vpshufb %xmm12, %xmm0, %xmm4 vmovdqa %xmm9, %xmm8 vmovaps 128(%rsp), %xmm11 vmovaps 352(%rsp), %xmm12 #APP vaesenc %xmm11, %xmm14, %xmm14 vaesenc %xmm11, %xmm15, %xmm15 vaesenc %xmm11, %xmm1, %xmm1 vaesenc %xmm11, %xmm2, %xmm2 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm11, %xmm13, %xmm13 vpclmulqdq $16, %xmm12, %xmm4, %xmm9 vpxor %xmm5, %xmm9, %xmm5 vpclmulqdq $0, %xmm12, %xmm4, %xmm9 vpxor %xmm7, %xmm9, %xmm7 vpclmulqdq $17, %xmm12, %xmm4, %xmm9 vpxor %xmm6, %xmm9, %xmm6 vpclmulqdq $1, %xmm12, %xmm4, %xmm9 vpxor %xmm5, %xmm9, %xmm5 #NO_APP vmovdqa %xmm8, %xmm9 vmovaps 48(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP vmovdqa 304(%rsp), %xmm8 vmovaps 432(%rsp), %xmm11 vmovdqa 384(%rsp), %xmm12 #APP vaesenc %xmm8, %xmm14, %xmm14 vaesenc %xmm8, %xmm15, %xmm15 vaesenc %xmm8, %xmm1, %xmm1 vaesenc %xmm8, %xmm2, %xmm2 vaesenc %xmm8, %xmm3, %xmm3 vaesenc %xmm8, %xmm13, %xmm13 vpclmulqdq $16, %xmm11, %xmm12, %xmm4 vpxor %xmm4, %xmm5, %xmm5 vpclmulqdq $0, %xmm11, %xmm12, %xmm4 vpxor %xmm4, %xmm7, %xmm7 vpclmulqdq $17, %xmm11, %xmm12, %xmm4 vpxor %xmm4, %xmm6, %xmm6 vpclmulqdq $1, %xmm11, %xmm12, %xmm4 vpxor %xmm4, %xmm5, %xmm5 #NO_APP vpxor %xmm8, %xmm8, %xmm8 vpunpcklqdq %xmm5, %xmm8, %xmm4 vpxor %xmm4, %xmm7, %xmm4 vpunpckhqdq %xmm8, %xmm5, %xmm5 vpxor %xmm5, %xmm6, %xmm5 vpbroadcastq .LCPI2_27(%rip), %xmm7 vpclmulqdq $16, %xmm7, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm6, %xmm4 vpclmulqdq $16, %xmm7, %xmm4, %xmm6 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpxor %xmm6, %xmm4, %xmm11 vmovdqa 112(%rsp), %xmm6 vmovaps 288(%rsp), %xmm4 #APP vaesenc %xmm4, %xmm14, %xmm14 vaesenc %xmm4, %xmm15, %xmm15 vaesenc %xmm4, %xmm1, %xmm1 vaesenc %xmm4, %xmm2, %xmm2 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm4, %xmm13, %xmm13 #NO_APP #APP vaesenclast %xmm6, %xmm14, %xmm14 vaesenclast %xmm6, %xmm15, %xmm15 vaesenclast %xmm6, %xmm1, %xmm1 vaesenclast %xmm6, %xmm2, %xmm2 vaesenclast %xmm6, %xmm3, %xmm3 vaesenclast %xmm6, %xmm13, %xmm13 #NO_APP vpxor 416(%rsp), %xmm14, %xmm4 vpxor %xmm0, %xmm15, %xmm0 vxorps (%rsp), %xmm1, %xmm1 vpxor 64(%rsp), %xmm2, %xmm2 vpxor 400(%rsp), %xmm3, %xmm3 vmovdqu %xmm4, (%rax) vmovdqu %xmm0, 16(%rax) vmovups %xmm1, 32(%rax) vmovdqu %xmm2, 48(%rax) vmovdqu %xmm3, 64(%rax) vpxor 320(%rsp), %xmm13, %xmm0 vmovdqu %xmm0, 80(%rax) addq $96, %r9 addq $96, %rax addq $-96, %rbx vpaddd .LCPI2_23(%rip), %xmm10, %xmm1 cmpq $95, %rbx ja .LBB2_34 vmovdqa %xmm1, %xmm0 vmovdqa %xmm11, (%rsp) vmovdqa 176(%rsp), %xmm7 vmovdqa 32(%rsp), %xmm5 vmovdqa 96(%rsp), %xmm12 vmovdqa 192(%rsp), %xmm10 vmovdqa 160(%rsp), %xmm11 vmovdqa 240(%rsp), %xmm8 vmovdqa 48(%rsp), %xmm4 vmovdqa 304(%rsp), %xmm1 vmovdqa 288(%rsp), %xmm13 movq %r8, %r13 cmpq $16, %rbx jae .LBB2_36 .LBB2_32: movq %rax, %r14 vmovdqa (%rsp), %xmm14 jmp .LBB2_38 .LBB2_30: vmovdqa %xmm1, %xmm0 movq %r15, %rbx vmovdqa %xmm10, %xmm7 vmovdqa %xmm2, %xmm11 vmovdqa 240(%rsp), %xmm8 vmovdqa 304(%rsp), %xmm1 vmovdqa 288(%rsp), %xmm13 vmovdqa 192(%rsp), %xmm10 movq %r8, %r13 cmpq $16, %rbx jb .LBB2_32 .LBB2_36: vmovdqa (%rsp), %xmm14 .p2align 4, 0x90 .LBB2_37: vmovdqu (%r9), %xmm2 vmovdqa .LCPI2_15(%rip), %xmm3 vpshufb %xmm3, %xmm2, %xmm3 vpxor %xmm3, %xmm14, %xmm3 vmovdqa 16(%rsp), %xmm15 vpclmulqdq $0, %xmm3, %xmm15, %xmm4 vmovdqa %xmm8, %xmm14 vmovdqa %xmm5, %xmm8 vpclmulqdq $1, %xmm3, %xmm15, %xmm5 vpclmulqdq $16, %xmm3, %xmm15, %xmm6 vpxor %xmm5, %xmm6, %xmm5 vpslldq $8, %xmm5, %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpclmulqdq $17, %xmm3, %xmm15, %xmm3 vpsrldq $8, %xmm5, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vpbroadcastq .LCPI2_27(%rip), %xmm5 vpclmulqdq $16, %xmm5, %xmm4, %xmm5 vpshufd $78, %xmm4, %xmm4 vpxor %xmm4, %xmm5, %xmm4 vpshufd $78, %xmm4, %xmm5 vpxor %xmm5, %xmm3, %xmm3 vmovdqa %xmm8, %xmm5 vmovdqa 256(%rsp), %xmm6 vmovdqa 272(%rsp), %xmm15 vmovdqa %xmm14, %xmm8 vpclmulqdq $16, .LCPI2_16(%rip), %xmm4, %xmm4 vpxor %xmm3, %xmm4, %xmm14 vmovdqa 48(%rsp), %xmm4 vpshufb .LCPI2_15(%rip), %xmm0, %xmm3 vpxor %xmm3, %xmm15, %xmm3 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm5, %xmm3, %xmm3 vaesenc %xmm12, %xmm3, %xmm3 vaesenc %xmm10, %xmm3, %xmm3 vaesenc 144(%rsp), %xmm3, %xmm3 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm11, %xmm3, %xmm3 vaesenc %xmm6, %xmm3, %xmm3 vmovdqa 112(%rsp), %xmm6 vaesenc %xmm8, %xmm3, %xmm3 vaesenc 128(%rsp), %xmm3, %xmm3 vaesenc %xmm4, %xmm3, %xmm3 vaesenc %xmm1, %xmm3, %xmm3 vaesenc %xmm13, %xmm3, %xmm3 vaesenclast %xmm6, %xmm3, %xmm3 vpxor %xmm2, %xmm3, %xmm2 vmovdqu %xmm2, (%rax) leaq 16(%rax), %r14 addq $-16, %rbx addq $16, %r9 vpaddd .LCPI2_18(%rip), %xmm0, %xmm0 movq %r14, %rax cmpq $15, %rbx ja .LBB2_37 .LBB2_38: vmovdqa %xmm0, 64(%rsp) vmovdqa %xmm14, (%rsp) testq %rbx, %rbx je .LBB2_39 vpxor %xmm0, %xmm0, %xmm0 vmovdqa %xmm0, 80(%rsp) leaq 80(%rsp), %rdi movq memcpy@GOTPCREL(%rip), %rbp movq %r9, %rsi movq %rbx, %rdx callq *%rbp vmovdqa 80(%rsp), %xmm1 vmovdqa 64(%rsp), %xmm0 vpshufb .LCPI2_15(%rip), %xmm0, %xmm0 vpxor 272(%rsp), %xmm0, %xmm0 vaesenc 176(%rsp), %xmm0, %xmm0 vaesenc 32(%rsp), %xmm0, %xmm0 vaesenc 96(%rsp), %xmm0, %xmm0 vaesenc 192(%rsp), %xmm0, %xmm0 vaesenc 144(%rsp), %xmm0, %xmm0 vaesenc 224(%rsp), %xmm0, %xmm0 vaesenc 160(%rsp), %xmm0, %xmm0 vaesenc 256(%rsp), %xmm0, %xmm0 vaesenc 240(%rsp), %xmm0, %xmm0 vaesenc 128(%rsp), %xmm0, %xmm0 vaesenc 48(%rsp), %xmm0, %xmm0 vaesenc 304(%rsp), %xmm0, %xmm0 vaesenc 288(%rsp), %xmm0, %xmm0 vaesenclast 112(%rsp), %xmm0, %xmm0 vmovdqa %xmm1, 64(%rsp) vpxor %xmm1, %xmm0, %xmm0 vmovdqa %xmm0, 320(%rsp) vmovdqa %xmm0, 80(%rsp) leaq 80(%rsp), %rsi movq %r14, %rdi movq %rbx, %rdx callq *%rbp vmovdqu 32(%r12), %xmm8 testq %r15, %r15 je .LBB2_44 vmovaps 64(%rsp), %xmm0 vmovaps %xmm0, 464(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 80(%rsp) leaq 80(%rsp), %rdi leaq 464(%rsp), %rsi movq %rbx, %rdx vmovdqa %xmm8, 64(%rsp) callq *memcpy@GOTPCREL(%rip) vmovdqa 64(%rsp), %xmm8 vmovdqa 80(%rsp), %xmm0 movq %r13, %r8 vmovdqa 208(%rsp), %xmm15 jmp .LBB2_46 .LBB2_39: vmovdqu 32(%r12), %xmm0 movq %r13, %r8 vmovdqa %xmm7, %xmm12 vpbroadcastq .LCPI2_27(%rip), %xmm5 vmovdqa 16(%rsp), %xmm14 vmovdqa 208(%rsp), %xmm15 vmovdqa %xmm8, %xmm10 vmovdqa %xmm0, %xmm8 vmovdqa 144(%rsp), %xmm7 jmp .LBB2_42 .LBB2_24: vpshufb .LCPI2_15(%rip), %xmm0, %xmm0 vpxor (%rsp), %xmm0, %xmm0 vmovdqa 16(%rsp), %xmm14 vpclmulqdq $0, %xmm0, %xmm14, %xmm1 vpclmulqdq $1, %xmm0, %xmm14, %xmm2 vpclmulqdq $16, %xmm0, %xmm14, %xmm3 vpclmulqdq $17, %xmm0, %xmm14, %xmm0 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpbroadcastq .LCPI2_27(%rip), %xmm4 vpclmulqdq $16, %xmm4, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm4, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm0 vmovdqa %xmm0, (%rsp) vmovdqa 176(%rsp), %xmm10 vmovdqa 224(%rsp), %xmm9 vmovdqa 160(%rsp), %xmm2 vmovdqa 48(%rsp), %xmm4 vmovdqa 112(%rsp), %xmm6 vmovdqa 208(%rsp), %xmm15 jmp .LBB2_41 .LBB2_44: movq %r13, %r8 vmovdqa 208(%rsp), %xmm15 vmovdqa 320(%rsp), %xmm0 .LBB2_46: vpshufb .LCPI2_15(%rip), %xmm0, %xmm0 vpxor (%rsp), %xmm0, %xmm0 vmovdqa 16(%rsp), %xmm14 vpclmulqdq $0, %xmm0, %xmm14, %xmm1 vpclmulqdq $1, %xmm0, %xmm14, %xmm2 vpclmulqdq $16, %xmm0, %xmm14, %xmm3 vpclmulqdq $17, %xmm0, %xmm14, %xmm0 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsrldq $8, %xmm2, %xmm2 vpbroadcastq .LCPI2_27(%rip), %xmm5 vpclmulqdq $16, %xmm5, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm5, %xmm1, %xmm3 vpxor %xmm2, %xmm0, %xmm0 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vpxor %xmm0, %xmm3, %xmm2 vmovdqa 176(%rsp), %xmm12 vmovdqa 144(%rsp), %xmm7 vmovdqa 224(%rsp), %xmm9 vmovdqa 160(%rsp), %xmm11 vmovdqa 240(%rsp), %xmm10 vmovdqa 128(%rsp), %xmm13 vmovdqa 48(%rsp), %xmm4 vmovdqa 112(%rsp), %xmm6 jmp .LBB2_47 .LBB2_23: vmovdqa 16(%rsp), %xmm14 .LBB2_41: vmovdqu 32(%r12), %xmm8 vpbroadcastq .LCPI2_27(%rip), %xmm5 vmovdqa %xmm10, %xmm12 vmovdqa 144(%rsp), %xmm7 vmovdqa %xmm2, %xmm11 vmovdqa 240(%rsp), %xmm10 .LBB2_42: vmovdqa 128(%rsp), %xmm13 vmovdqa (%rsp), %xmm2 .LBB2_47: shlq $3, %r15 vmovq %r8, %xmm0 vmovq %r15, %xmm1 vpunpcklqdq %xmm0, %xmm1, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vpclmulqdq $0, %xmm0, %xmm14, %xmm1 vpclmulqdq $1, %xmm0, %xmm14, %xmm2 vpclmulqdq $16, %xmm0, %xmm14, %xmm3 vpclmulqdq $17, %xmm0, %xmm14, %xmm0 vpxor %xmm2, %xmm3, %xmm2 vpslldq $8, %xmm2, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpclmulqdq $16, %xmm5, %xmm1, %xmm3 vpshufd $78, %xmm1, %xmm1 vpxor %xmm1, %xmm3, %xmm1 vpclmulqdq $16, %xmm5, %xmm1, %xmm3 vpxor %xmm0, %xmm3, %xmm0 vpxor 272(%rsp), %xmm15, %xmm3 vaesenc %xmm12, %xmm3, %xmm3 vaesenc 32(%rsp), %xmm3, %xmm3 vaesenc 96(%rsp), %xmm3, %xmm3 vaesenc 192(%rsp), %xmm3, %xmm3 vaesenc %xmm7, %xmm3, %xmm3 vaesenc %xmm9, %xmm3, %xmm3 vaesenc %xmm11, %xmm3, %xmm3 vaesenc 256(%rsp), %xmm3, %xmm3 vaesenc %xmm10, %xmm3, %xmm3 vaesenc %xmm13, %xmm3, %xmm3 vaesenc %xmm4, %xmm3, %xmm3 vaesenc 304(%rsp), %xmm3, %xmm3 vaesenc 288(%rsp), %xmm3, %xmm3 vaesenclast %xmm6, %xmm3, %xmm3 vpshufb .LCPI2_24(%rip), %xmm2, %xmm2 vpshufb .LCPI2_25(%rip), %xmm1, %xmm1 vpxor %xmm1, %xmm2, %xmm1 vpxor %xmm1, %xmm8, %xmm1 vpshufb .LCPI2_15(%rip), %xmm0, %xmm0 vpxor %xmm0, %xmm1, %xmm0 vpxor %xmm3, %xmm0, %xmm0 xorl %eax, %eax vptest %xmm0, %xmm0 sete %al .LBB2_48: addq $488, %rsp .cfi_def_cfa_offset 56 popq %rbx .cfi_def_cfa_offset 48 popq %r12 .cfi_def_cfa_offset 40 popq %r13 .cfi_def_cfa_offset 32 popq %r14 .cfi_def_cfa_offset 24 popq %r15 .cfi_def_cfa_offset 16 popq %rbp .cfi_def_cfa_offset 8 retq .Lfunc_end2: .size haberdashery_aes256gcmdndkv2kc_haswell_decrypt, .Lfunc_end2-haberdashery_aes256gcmdndkv2kc_haswell_decrypt .cfi_endproc .section .text.haberdashery_aes256gcmdndkv2kc_haswell_is_supported,"ax",@progbits .globl haberdashery_aes256gcmdndkv2kc_haswell_is_supported .p2align 4, 0x90 .type haberdashery_aes256gcmdndkv2kc_haswell_is_supported,@function haberdashery_aes256gcmdndkv2kc_haswell_is_supported: .cfi_startproc movl $1, %eax xorl %ecx, %ecx #APP movq %rbx, %rsi cpuid xchgq %rbx, %rsi #NO_APP movl %ecx, %esi movl %edx, %edi notl %edi notl %esi movl $7, %eax xorl %ecx, %ecx #APP movq %rbx, %r8 cpuid xchgq %rbx, %r8 #NO_APP andl $1993871875, %esi andl $125829120, %edi orl %esi, %edi notl %r8d andl $297, %r8d xorl %eax, %eax orl %edi, %r8d sete %al retq .Lfunc_end3: .size haberdashery_aes256gcmdndkv2kc_haswell_is_supported, .Lfunc_end3-haberdashery_aes256gcmdndkv2kc_haswell_is_supported .cfi_endproc .ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)" .section ".note.GNU-stack","",@progbits
tvallotton/xolotl
1,106
src/sys/asm/aarch64-linux.s
.global switch_context .type switch_context, @function .p2align 2 switch_context: .cfi_startproc // # Store context // store sp mov x6, sp str x6, [x0, #0] // General purpose registers stp x30, x29, [x0, #8] stp x28, x27, [x0, #24] stp x26, x25, [x0, #40] stp x24, x23, [x0, #56] stp x22, x21, [x0, #72] stp x20, x19, [x0, #88] // store d registers stp d9, d8, [x0, #104] stp d11, d10, [x0, #120] stp d13, d12, [x0, #136] stp d15, d14, [x0, #152] // load sp ldr x6, [x1, #0] mov sp, x6 // General purpose registers ldp x30, x29, [x1, #8] ldp x28, x27, [x1, #24] ldp x26, x25, [x1, #40] ldp x24, x23, [x1, #56] ldp x22, x21, [x1, #72] ldp x20, x19, [x1, #88] // load d registers ldp d9, d8, [x1, #104] ldp d11, d10, [x1, #120] ldp d13, d12, [x1, #136] ldp d15, d14, [x1, #152] mov x0, x2 .cfi_undefined x30 .cfi_undefined x29 br x30 .cfi_endproc .global stack_pointer .p2align 2 stack_pointer: mov x0, sp br x30
tvallotton/xolotl
1,078
src/sys/asm/aarch64-macos.s
.global _switch_context .p2align 2 _switch_context: .cfi_startproc // # Store context // store sp mov x6, sp str x6, [x0, #0] // General purpose registers stp x30, x29, [x0, #8] stp x28, x27, [x0, #24] stp x26, x25, [x0, #40] stp x24, x23, [x0, #56] stp x22, x21, [x0, #72] stp x20, x19, [x0, #88] // store d registers stp d9, d8, [x0, #104] stp d11, d10, [x0, #120] stp d13, d12, [x0, #136] stp d15, d14, [x0, #152] // load sp ldr x6, [x1, #0] mov sp, x6 // General purpose registers ldp x30, x29, [x1, #8] ldp x28, x27, [x1, #24] ldp x26, x25, [x1, #40] ldp x24, x23, [x1, #56] ldp x22, x21, [x1, #72] ldp x20, x19, [x1, #88] // load d registers ldp d9, d8, [x1, #104] ldp d11, d10, [x1, #120] ldp d13, d12, [x1, #136] ldp d15, d14, [x1, #152] mov x0, x2 .cfi_undefined x30 .cfi_undefined x29 br x30 .cfi_endproc .global _stack_pointer .p2align 2 _stack_pointer: mov x0, sp br x30
Umuril/rust-kernel-template
1,063
src/arch/x86_64/boot2.S
.SetupPaging: .code32 // Disable old paging MOV eax, cr0 AND eax, 0x7fffffff MOV cr0, eax // Enable Paging MOV edi, 0x200000 MOV cr3, edi // &PML4T XOR eax, eax MOV ecx, 0x1000 REP stosd // Repeated store (ecx times the eax value) // Set PML4T[0] -> PDPT[0] MOV edi, 0x200000 MOV QWORD PTR [edi], 0x201003 // Set PDPT[0] -> PDT[0] MOV edi, 0x201000 MOV QWORD PTR [edi], 0x202003 // Set PDT[0] -> PT[0] MOV edi, 0x202000 MOV QWORD PTR [edi], 0x203003 MOV edi, 0x203000 MOV ebx, 0x00000003 // PT[i] -> Phisical address MOV ecx, 512 // Loop counter (loop instruction decrements it automatically) .SetEntryPT: MOV QWORD PTR [edi], ebx ADD ebx, 0x1000 ADD edi, 8 loop .SetEntryPT // Enable PAE-paging MOV eax, cr4 OR eax, 1 << 5 MOV cr4, eax RET .EnablePaging: .code32 MOV ecx, 0xC0000080 RDMSR OR eax, 1 << 8 WRMSR MOV eax, cr0 OR eax, 1 << 31 | 1 << 0 MOV cr0, eax RET
UNIX-73/baremetal_v3
1,696
src_asm/boot.S
/* SPDX-License-Identifier: MIT OR Apache-2.0 * * Bootloader simplificado: * - Inicializa la BSS (pone a cero el segmento .bss). * - Configura el puntero de pila. * - Salta a la entrada de Rust (_start_rust) en EL1. */ /* Macro para cargar una dirección de un símbolo de forma PC-relativa */ .macro ADR_REL reg, sym adrp \reg, \sym add \reg, \reg, #:lo12:\sym .endm .section .text._start .global _start _start: /* Inicialización de la BSS */ ADR_REL x0, __bss_start /* Dirección de inicio de .bss */ ADR_REL x1, __bss_end_exclusive /* Dirección final de .bss */ .L_bss_init_loop: cmp x0, x1 beq .L_prepare_rust /* Si se ha recorrido toda la BSS, saltar */ stp xzr, xzr, [x0], #16 /* Escribe 0 en dos registros de 64 bits y avanza 16 bytes */ b .L_bss_init_loop .L_prepare_rust: /* Configurar el puntero de pila para EL1 */ ADR_REL x0, __boot_core_stack_end_exclusive /* Carga la dirección final de la pila */ mov sp, x0 /* Usar la pila actual para la fase de boot */ msr SP_EL1, x0 /* Establecer SP_EL1 para EL1 */ /* Configurar SPSR_EL2 para regresar a EL1 en modo AArch64 con SP_EL1 (EL1h) y con interrupciones enmascaradas (por ejemplo, con valor 0x3c5) */ mov x0, #0x3c5 msr SPSR_EL2, x0 /* Configurar HCR_EL2 para que EL1 se ejecute en AArch64 */ mov x0, #(1 << 31) /* Establece RW=1 */ msr HCR_EL2, x0 /* Configurar ELR_EL2 con la dirección de entrada en EL1 (switch_to_el1) */ ADR_REL x0, switch_to_el1 msr ELR_EL2, x0 /* Realiza la transición a EL1: eret usará SPSR_EL2 y ELR_EL2 para cambiar a EL1 */ eret .size _start, . - _start
UNIX-73/baremetal_v3
3,340
src_asm/irq/entry.S
#include "entry.h" //D13.2.137 .globl irq_init_vectors irq_init_vectors: adr x0, vectors msr vbar_el1, x0 ret //C5.2.2 .globl irq_enable irq_enable: msr daifclr, #2 ret .globl irq_disable irq_disable: msr daifset, #2 ret .macro kernel_entry sub sp, sp, #S_FRAME_SIZE stp x0, x1, [sp, #16 * 0] stp x2, x3, [sp, #16 * 1] stp x4, x5, [sp, #16 * 2] stp x6, x7, [sp, #16 * 3] stp x8, x9, [sp, #16 * 4] stp x10, x11, [sp, #16 * 5] stp x12, x13, [sp, #16 * 6] stp x14, x15, [sp, #16 * 7] stp x16, x17, [sp, #16 * 8] stp x18, x19, [sp, #16 * 9] stp x20, x21, [sp, #16 * 10] stp x22, x23, [sp, #16 * 11] stp x24, x25, [sp, #16 * 12] stp x26, x27, [sp, #16 * 13] stp x28, x29, [sp, #16 * 14] str x30, [sp, #16 * 15] .endm .macro kernel_exit ldp x0, x1, [sp, #16 * 0] ldp x2, x3, [sp, #16 * 1] ldp x4, x5, [sp, #16 * 2] ldp x6, x7, [sp, #16 * 3] ldp x8, x9, [sp, #16 * 4] ldp x10, x11, [sp, #16 * 5] ldp x12, x13, [sp, #16 * 6] ldp x14, x15, [sp, #16 * 7] ldp x16, x17, [sp, #16 * 8] ldp x18, x19, [sp, #16 * 9] ldp x20, x21, [sp, #16 * 10] ldp x22, x23, [sp, #16 * 11] ldp x24, x25, [sp, #16 * 12] ldp x26, x27, [sp, #16 * 13] ldp x28, x29, [sp, #16 * 14] ldr x30, [sp, #16 * 15] add sp, sp, #S_FRAME_SIZE eret .endm .macro handle_invalid_entry type kernel_entry mov x0, #\type mrs x1, esr_el1 mrs x2, elr_el1 bl show_invalid_entry_message b err_hang .endm .macro ventry label .align 7 b \label .endm //Exception vectors table .align 11 .globl vectors vectors: ventry sync_invalid_el1t // Synchronous EL1t ventry irq_invalid_el1t // IRQ EL1t ventry fiq_invalid_el1t // FIQ EL1t ventry error_invalid_el1t // Error EL1t ventry sync_invalid_el1h // Synchronous EL1h ventry handle_el1_irq // IRQ EL1h ventry fiq_invalid_el1h // FIQ EL1h ventry error_invalid_el1h // Error EL1h ventry sync_invalid_el0_64 // Synchronous 64-bit EL0 ventry irq_invalid_el0_64 // IRQ 64-bit EL0 ventry fiq_invalid_el0_64 // FIQ 64-bit EL0 ventry error_invalid_el0_64 // Error 64-bit EL0 ventry sync_invalid_el0_32 // Synchronous 32-bit EL0 ventry irq_invalid_el0_32 // IRQ 32-bit EL0 ventry fiq_invalid_el0_32 // FIQ 32-bit EL0 ventry error_invalid_el0_32 // Error 32-bit EL0 sync_invalid_el1t: handle_invalid_entry SYNC_INVALID_EL1t irq_invalid_el1t: handle_invalid_entry IRQ_INVALID_EL1t fiq_invalid_el1t: handle_invalid_entry FIQ_INVALID_EL1t error_invalid_el1t: handle_invalid_entry ERROR_INVALID_EL1t sync_invalid_el1h: handle_invalid_entry SYNC_INVALID_EL1h fiq_invalid_el1h: handle_invalid_entry FIQ_INVALID_EL1h error_invalid_el1h: handle_invalid_entry ERROR_INVALID_EL1h sync_invalid_el0_64: handle_invalid_entry SYNC_INVALID_EL0_64 irq_invalid_el0_64: handle_invalid_entry IRQ_INVALID_EL0_64 fiq_invalid_el0_64: handle_invalid_entry FIQ_INVALID_EL0_64 error_invalid_el0_64: handle_invalid_entry ERROR_INVALID_EL0_64 sync_invalid_el0_32: handle_invalid_entry SYNC_INVALID_EL0_32 irq_invalid_el0_32: handle_invalid_entry IRQ_INVALID_EL0_32 fiq_invalid_el0_32: handle_invalid_entry FIQ_INVALID_EL0_32 error_invalid_el0_32: handle_invalid_entry ERROR_INVALID_EL0_32 handle_el1_irq: kernel_entry bl handle_irq kernel_exit .globl err_hang err_hang: b err_hang
UnpluggedAOSP12/bootable_libbootloader
9,565
gbl/efi/arch/riscv64/riscv64_efi_header.S
/* * Copyright (C) 2023 The Android Open Source Project * * Licensed under the Apache License, Version 2.0 (the "License"); * you may not use this file except in compliance with the License. * You may obtain a copy of the License at * * http://www.apache.org/licenses/LICENSE-2.0 * * Unless required by applicable law or agreed to in writing, software * distributed under the License is distributed on an "AS IS" BASIS, * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. * See the License for the specific language governing permissions and * limitations under the License. */ // Refer to https://llvm.org/doxygen/Object_2COFF_8h_source.html and Microsoft Portable Executable // and Common Object File Format Specification for more detail. // See https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#machine-types #define IMAGE_FILE_MACHINE_RISCV64 0x5064 // See https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#characteristics #define IMAGE_FILE_EXECUTABLE_IMAGE 0x0002 // See https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#optional-header-image-only #define PE32_PLUS_HEADER_MAGIC 0x020b // See https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#windows-subsystem #define IMAGE_SUBSYSTEM_EFI_APPLICATION 10 .macro DATA_DIRECTORY name \name\()_data_directory: .long 0 // support::ulittle32_t RelativeVirtualAddress; .long 0 // support::ulittle32_t Size; .endm .section .efi_header,"a" .global dos_header // MS-DOS Stub dos_header: .short 0x5a4d // Magic 'MZ' .short 0 // support::ulittle16_t UsedBytesInTheLastPage; .short 0 // support::ulittle16_t FileSizeInPages; .short 0 // support::ulittle16_t NumberOfRelocationItems; .short 0 // support::ulittle16_t HeaderSizeInParagraphs; .short 0 // support::ulittle16_t MinimumExtraParagraphs; .short 0 // support::ulittle16_t MaximumExtraParagraphs; .short 0 // support::ulittle16_t InitialRelativeSS; .short 0 // support::ulittle16_t InitialSP; .short 0 // support::ulittle16_t Checksum; .short 0 // support::ulittle16_t InitialIP; .short 0 // support::ulittle16_t InitialRelativeCS; .short 0 // support::ulittle16_t AddressOfRelocationTable; .short 0 // support::ulittle16_t OverlayNumber; .skip 2*4 // support::ulittle16_t Reserved[4]; .short 0 // support::ulittle16_t OEMid; .short 0 // support::ulittle16_t OEMinfo; .skip 2*10 // support::ulittle16_t Reserved2[10]; // Even though we fixed `dos_header` at 0x00, we still need to subtract it to // indicate this is relative offset. Otherwise linker complains about referencing // an absolute address when linking with `-fPIE` (position independent executable) .long signature - dos_header // support::ulittle32_t AddressOfNewExeHeader; // Signature signature: .long 0x00004550 // "PE\0\0" // COFF File Header coff_file_header: .short IMAGE_FILE_MACHINE_RISCV64 // support::ulittle16_t Machine; // ".reloc" and ".text" .short 2 // support::ulittle16_t NumberOfSections; .long 0 // support::ulittle32_t TimeDateStamp; .long 0 // support::ulittle32_t PointerToSymbolTable; .long 0 // support::ulittle32_t NumberOfSymbols; .short section_table_start - pe32plus_header // support::ulittle16_t SizeOfOptionalHeader; .short IMAGE_FILE_EXECUTABLE_IMAGE // support::ulittle16_t Characteristics; // PE32+ Optional Header pe32plus_header: .short PE32_PLUS_HEADER_MAGIC // support::ulittle16_t Magic; .byte 0 // uint8_t MajorLinkerVersion; .byte 0 // uint8_t MinorLinkerVersion; .long _end - dos_header // support::ulittle32_t SizeOfCode; .long 0 // support::ulittle32_t SizeOfInitializedData; .long 0 // support::ulittle32_t SizeOfUninitializedData; .long _start - dos_header // support::ulittle32_t AddressOfEntryPoint; .long dos_header - dos_header // support::ulittle32_t BaseOfCode; .quad 0 // support::ulittle64_t ImageBase; .long 512 // support::ulittle32_t SectionAlignment; .long 512 // support::ulittle32_t FileAlignment; .short 0 // support::ulittle16_t MajorOperatingSystemVersion; .short 0 // support::ulittle16_t MinorOperatingSystemVersion; .short 0 // support::ulittle16_t MajorImageVersion; .short 0 // support::ulittle16_t MinorImageVersion; .short 0 // support::ulittle16_t MajorSubsystemVersion; .short 0 // support::ulittle16_t MinorSubsystemVersion; .long 0 // support::ulittle32_t Win32VersionValue; .long _end - dos_header // support::ulittle32_t SizeOfImage; .long end_of_header - dos_header // support::ulittle32_t SizeOfHeaders; .long 0 // support::ulittle32_t CheckSum; .short IMAGE_SUBSYSTEM_EFI_APPLICATION // support::ulittle16_t Subsystem; .short 0 // support::ulittle16_t DLLCharacteristics; .quad 0 // support::ulittle64_t SizeOfStackReserve; .quad 0 // support::ulittle64_t SizeOfStackCommit; .quad 0 // support::ulittle64_t SizeOfHeapReserve; .quad 0 // support::ulittle64_t SizeOfHeapCommit; .long 0 // support::ulittle32_t LoaderFlags; // 16 data directories in total .long 16 // support::ulittle32_t NumberOfRvaAndSize; // The following are data directories mostly for place holder purpose for now. Entries // such as certification_table might be needed for secure boot in the future. DATA_DIRECTORY export_table DATA_DIRECTORY import_table DATA_DIRECTORY resource_table DATA_DIRECTORY exception_table DATA_DIRECTORY certification_table DATA_DIRECTORY base_relocation_table DATA_DIRECTORY debug DATA_DIRECTORY architecture_data DATA_DIRECTORY global_ptr DATA_DIRECTORY tls_table DATA_DIRECTORY load_config_table DATA_DIRECTORY bound_inport DATA_DIRECTORY import_address_table DATA_DIRECTORY delay_import_descriptor DATA_DIRECTORY CLR_runtime_header .quad 0 // Section Table section_table_start: // .reloc. May be expected by some PE32+ loader reloc_section: .ascii ".reloc" .byte 0 .byte 0 // 8 bytes of `char Name[COFF::NameSize];` .long 0 // support::ulittle32_t VirtualSize; .long 0 // support::ulittle32_t VirtualAddress; .long 0 // support::ulittle32_t SizeOfRawData; .long 0 // support::ulittle32_t PointerToRawData; .long 0 // support::ulittle32_t PointerToRelocations; .long 0 // support::ulittle32_t PointerToLinenumbers; .short 0 // support::ulittle16_t NumberOfRelocations; .short 0 // support::ulittle16_t NumberOfLinenumbers; // https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#section-flags // We use the same value as Clang would generate with "-Wl,/subsystem:efi_application" // IMAGE_SCN_CNT_INITIALIZED_DATA | IMAGE_SCN_MEM_DISCARDABLE | // IMAGE_SCN_MEM_READ .long 0x42000040 // support::ulittle32_t Characteristics; // .text text_section: .ascii ".text" .byte 0 .byte 0 .byte 0 // 8 bytes of `char Name[COFF::NameSize];` .long _end - end_of_header // support::ulittle32_t VirtualSize; .long end_of_header - dos_header // support::ulittle32_t VirtualAddress; .long _end - end_of_header // support::ulittle32_t SizeOfRawData; .long end_of_header - dos_header // support::ulittle32_t PointerToRawData; .long 0 // support::ulittle32_t PointerToRelocations; .long 0 // support::ulittle32_t PointerToLinenumbers; .short 0 // support::ulittle16_t NumberOfRelocations; .short 0 // support::ulittle16_t NumberOfLinenumbers; // IMAGE_SCN_CNT_CODE | IMAGE_SCN_CNT_INITIALIZED_DATA | // IMAGE_SCN_MEM_EXECUTE | IMAGE_SCN_MEM_READ // We use the same value as Clang would generate with "-Wl,/subsystem:efi_application" .long 0x60000020 // support::ulittle32_t Characteristics; end_of_header: // Traditionally, PE/COFF header occupies the entire first page. We keep this pattern. .align 9 _start: // Behave like a function call. addi sp, sp, -8*3 sd ra, 0(sp) sd s0, 8(sp) sd s1, 16(sp) // Save the EFI image handle from a0 mv s0, a0 // Save the EFI system table from a1 mv s1, a1 // Get the program load address (same as dos_header), and .dynamic section address. lla a0, dos_header lla a1, _DYNAMIC // Apply relocation fixup call ApplyRelocationHangIfFail // Now call efi_main. mv a0, s0 mv a1, s1 call efi_main // Prepare to return. ld ra, 0(sp) ld s0, 8(sp) ld s1, 16(sp) add sp, sp, 8*3 ret
UnpluggedAOSP12/bootable_libbootloader
1,706
gbl/libboot/aarch64_cache_helper/disable_cache_mmu.S
/* * Copyright (C) 2023 The Android Open Source Project * * Licensed under the Apache License, Version 2.0 (the "License"); * you may not use this file except in compliance with the License. * You may obtain a copy of the License at * * http://www.apache.org/licenses/LICENSE-2.0 * * Unless required by applicable law or agreed to in writing, software * distributed under the License is distributed on an "AS IS" BASIS, * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. * See the License for the specific language governing permissions and * limitations under the License. */ #include <arch.h> .global disable_cache_mmu_and_jump /* --------------------------------------------------------------- * Disable cache, MMU and jump to the given address with arguments * * x0 - x3: Arguments for the target jump address. * x4: The jump address. * --------------------------------------------------------------- */ disable_cache_mmu_and_jump: // Query current EL mrs x5, CurrentEL cmp x5, #(1 << 3) beq asm_disable_cache_mmu_el2 /* * Invalidate instruction cache before disabling it. */ ic iallu isb asm_disable_cache_mmu_el1: mrs x5, sctlr_el1 bic x5, x5, #SCTLR_M_BIT bic x5, x5, #SCTLR_C_BIT bic x5, x5, #SCTLR_I_BIT msr sctlr_el1, x5 b asm_finish asm_disable_cache_mmu_el2: mrs x5, sctlr_el2 bic x5, x5, #SCTLR_M_BIT bic x5, x5, #SCTLR_C_BIT bic x5, x5, #SCTLR_I_BIT msr sctlr_el2, x5 asm_finish: ic iallu isb /* * Invalidate TLB. */ tlbi vmalle1 br x4 /* * Prevent speculative execution. */ dsb nsh isb
UnpluggedAOSP12/bootable_libbootloader
1,306
gbl/libboot/aarch64_cache_helper/include/common/asm_macros_common.S
/* * Copyright (C) 2023 The Android Open Source Project * * Licensed under the Apache License, Version 2.0 (the "License"); * you may not use this file except in compliance with the License. * You may obtain a copy of the License at * * http://www.apache.org/licenses/LICENSE-2.0 * * Unless required by applicable law or agreed to in writing, software * distributed under the License is distributed on an "AS IS" BASIS, * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. * See the License for the specific language governing permissions and * limitations under the License. */ /* * This file replaces "external/arm-trusted-firmware/include/common/asm_macros_common.S" for * building "external/arm-trusted-firmware/lib/aarch64/cache_helper.S". It defines the "func" * macro for declaring assembly function. However the original file uses assembly directives * such as ".size" for debug information which are not recogized by LLVM when building for * windows/msvc target. Thus we use our custom definition to workaround. */ /* * This macro marks the begin of a function. It simply creates a label. */ .macro func _name \_name: .endm /* * This macro is used to mark the end of a function. For our usage, it's simply a noop. */ .macro endfunc _name .endm
unvariant/advent-of-code-2024
2,033
src/day4.s
.pushsection .text inline: push rbp push rbx push r15 push r14 push r13 push r12 vpbroadcastb ymm4, byte ptr [rip + ascii_x] vmovdqu ymm0, ymmword ptr [rdi] vmovdqu ymm8, ymmword ptr [rdi + 141 * 0 + 32 * 0] vpcmpeqb ymm9, ymm8, ymm4 vpcmpeqb ymm10, ymm8, ymm5 vpcmpeqb ymm11, ymm8, ymm6 vpcmpeqb ymm12, ymm8, ymm7 vpmovmskb eax, ymm9 vpmovmskb edx, ymm10 vpmovmskb ecx, ymm11 vpmovmskb ebx, ymm12 vpinsrd xmm16, eax, 0 vpinsrd xmm17, edx, 0 vpinsrd xmm18, ecx, 0 vpinsrd xmm19, ebx, 0 vmovdqu ymm8, ymmword ptr [rdi + 141 * 0 + 32 * 1] vpcmpeqb ymm9, ymm8, ymm4 vpcmpeqb ymm10, ymm8, ymm5 vpcmpeqb ymm11, ymm8, ymm6 vpcmpeqb ymm12, ymm8, ymm7 vpmovmskb eax, ymm9 vpmovmskb edx, ymm10 vpmovmskb ecx, ymm11 vpmovmskb ebx, ymm12 vpinsrd xmm16, eax, 1 vpinsrd xmm17, edx, 1 vpinsrd xmm18, ecx, 1 vpinsrd xmm19, ebx, 1 vmovdqu ymm8, ymmword ptr [rdi + 141 * 0 + 32 * 2] vpcmpeqb ymm9, ymm8, ymm4 vpcmpeqb ymm10, ymm8, ymm5 vpcmpeqb ymm11, ymm8, ymm6 vpcmpeqb ymm12, ymm8, ymm7 vpmovmskb eax, ymm9 vpmovmskb edx, ymm10 vpmovmskb ecx, ymm11 vpmovmskb ebx, ymm12 vpinsrd xmm16, eax, 2 vpinsrd xmm17, edx, 2 vpinsrd xmm18, ecx, 2 vpinsrd xmm19, ebx, 2 vmovdqu ymm8, ymmword ptr [rdi + 141 * 0 + 32 * 3] vpcmpeqb ymm9, ymm8, ymm4 vpcmpeqb ymm10, ymm8, ymm5 vpcmpeqb ymm11, ymm8, ymm6 vpcmpeqb ymm12, ymm8, ymm7 vpmovmskb eax, ymm9 vpmovmskb edx, ymm10 vpmovmskb ecx, ymm11 vpmovmskb ebx, ymm12 vpinsrd xmm16, eax, 3 vpinsrd xmm17, edx, 3 vpinsrd xmm18, ecx, 3 vpinsrd xmm19, ebx, 3 mov r15, 140 1: dec r15 jne 1b pop r12 pop r13 pop r14 pop r15 pop rbx pop rbp ret .popsection .pushsection .data ascii_x: .byte 'X' ascii_m: .byte 'M' ascii_a: .byte 'A' ascii_s: .byte 'S' .popsection
Umuril/rust-kernel-template
1,063
src/arch/x86_64/boot2.S
.SetupPaging: .code32 // Disable old paging MOV eax, cr0 AND eax, 0x7fffffff MOV cr0, eax // Enable Paging MOV edi, 0x200000 MOV cr3, edi // &PML4T XOR eax, eax MOV ecx, 0x1000 REP stosd // Repeated store (ecx times the eax value) // Set PML4T[0] -> PDPT[0] MOV edi, 0x200000 MOV QWORD PTR [edi], 0x201003 // Set PDPT[0] -> PDT[0] MOV edi, 0x201000 MOV QWORD PTR [edi], 0x202003 // Set PDT[0] -> PT[0] MOV edi, 0x202000 MOV QWORD PTR [edi], 0x203003 MOV edi, 0x203000 MOV ebx, 0x00000003 // PT[i] -> Phisical address MOV ecx, 512 // Loop counter (loop instruction decrements it automatically) .SetEntryPT: MOV QWORD PTR [edi], ebx ADD ebx, 0x1000 ADD edi, 8 loop .SetEntryPT // Enable PAE-paging MOV eax, cr4 OR eax, 1 << 5 MOV cr4, eax RET .EnablePaging: .code32 MOV ecx, 0xC0000080 RDMSR OR eax, 1 << 8 WRMSR MOV eax, cr0 OR eax, 1 << 31 | 1 << 0 MOV cr0, eax RET
usenix-security-verdict/verdict
70,025
deps/libcrux/sys/libjade/jazz/chacha20_avx2.s
.att_syntax .text .p2align 5 .globl _jade_stream_chacha_chacha20_ietf_amd64_avx2 .globl jade_stream_chacha_chacha20_ietf_amd64_avx2 .globl _jade_stream_chacha_chacha20_ietf_amd64_avx2_xor .globl jade_stream_chacha_chacha20_ietf_amd64_avx2_xor _jade_stream_chacha_chacha20_ietf_amd64_avx2: jade_stream_chacha_chacha20_ietf_amd64_avx2: movq %rsp, %r10 leaq -1152(%rsp), %rsp andq $-32, %rsp cmpq $257, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$1 vmovdqu glob_data + 160(%rip), %ymm0 vmovdqu glob_data + 128(%rip), %ymm1 vmovdqu %ymm0, (%rsp) vmovdqu %ymm1, 32(%rsp) vmovdqu glob_data + 256(%rip), %ymm0 vmovdqu glob_data + 288(%rip), %ymm1 vmovdqu glob_data + 320(%rip), %ymm2 vmovdqu glob_data + 352(%rip), %ymm3 vpbroadcastd (%rcx), %ymm4 vpbroadcastd 4(%rcx), %ymm5 vpbroadcastd 8(%rcx), %ymm6 vpbroadcastd 12(%rcx), %ymm7 vpbroadcastd 16(%rcx), %ymm8 vpbroadcastd 20(%rcx), %ymm9 vpbroadcastd 24(%rcx), %ymm10 vpbroadcastd 28(%rcx), %ymm11 vmovdqu glob_data + 224(%rip), %ymm12 vpbroadcastd (%rdx), %ymm13 vpbroadcastd 4(%rdx), %ymm14 vpbroadcastd 8(%rdx), %ymm15 vmovdqu %ymm0, 640(%rsp) vmovdqu %ymm1, 672(%rsp) vmovdqu %ymm2, 704(%rsp) vmovdqu %ymm3, 736(%rsp) vmovdqu %ymm4, 768(%rsp) vmovdqu %ymm5, 800(%rsp) vmovdqu %ymm6, 832(%rsp) vmovdqu %ymm7, 864(%rsp) vmovdqu %ymm8, 896(%rsp) vmovdqu %ymm9, 928(%rsp) vmovdqu %ymm10, 960(%rsp) vmovdqu %ymm11, 992(%rsp) vmovdqu %ymm12, 1024(%rsp) vmovdqu %ymm13, 1056(%rsp) vmovdqu %ymm14, 1088(%rsp) vmovdqu %ymm15, 1120(%rsp) jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$32 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$33: vmovdqu 640(%rsp), %ymm0 vmovdqu 672(%rsp), %ymm1 vmovdqu 704(%rsp), %ymm2 vmovdqu 736(%rsp), %ymm3 vmovdqu 768(%rsp), %ymm4 vmovdqu 800(%rsp), %ymm5 vmovdqu 832(%rsp), %ymm6 vmovdqu 864(%rsp), %ymm7 vmovdqu 896(%rsp), %ymm8 vmovdqu 928(%rsp), %ymm9 vmovdqu 960(%rsp), %ymm10 vmovdqu 992(%rsp), %ymm11 vmovdqu 1024(%rsp), %ymm12 vmovdqu 1056(%rsp), %ymm13 vmovdqu 1088(%rsp), %ymm14 vmovdqu 1120(%rsp), %ymm15 vmovdqu %ymm15, 64(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$34: vpaddd %ymm4, %ymm0, %ymm0 vpxor %ymm0, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm4, %ymm0, %ymm0 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm0, %ymm12, %ymm12 vpxor %ymm10, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm6, %ymm6 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vmovdqu 64(%rsp), %ymm15 vmovdqu %ymm14, 96(%rsp) vpaddd %ymm5, %ymm1, %ymm1 vpxor %ymm1, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm5, %ymm1, %ymm1 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm1, %ymm13, %ymm13 vpxor %ymm11, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm11, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm6, %ymm1, %ymm1 vpxor %ymm1, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm6, %ymm1, %ymm1 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm1, %ymm12, %ymm12 vpxor %ymm10, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm5, %ymm5 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vmovdqu 96(%rsp), %ymm15 vmovdqu %ymm14, 64(%rsp) vpaddd %ymm7, %ymm2, %ymm2 vpxor %ymm2, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm7, %ymm2, %ymm2 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm2, %ymm13, %ymm13 vpxor %ymm9, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm9, %ymm4, %ymm4 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$34 vmovdqu 64(%rsp), %ymm15 vpaddd 640(%rsp), %ymm0, %ymm0 vpaddd 672(%rsp), %ymm1, %ymm1 vpaddd 704(%rsp), %ymm2, %ymm2 vpaddd 736(%rsp), %ymm3, %ymm3 vpaddd 768(%rsp), %ymm4, %ymm4 vpaddd 800(%rsp), %ymm5, %ymm5 vpaddd 832(%rsp), %ymm6, %ymm6 vpaddd 864(%rsp), %ymm7, %ymm7 vpaddd 896(%rsp), %ymm8, %ymm8 vpaddd 928(%rsp), %ymm9, %ymm9 vpaddd 960(%rsp), %ymm10, %ymm10 vpaddd 992(%rsp), %ymm11, %ymm11 vpaddd 1024(%rsp), %ymm12, %ymm12 vpaddd 1056(%rsp), %ymm13, %ymm13 vpaddd 1088(%rsp), %ymm14, %ymm14 vpaddd 1120(%rsp), %ymm15, %ymm15 vmovdqu %ymm8, 128(%rsp) vmovdqu %ymm9, 160(%rsp) vmovdqu %ymm10, 192(%rsp) vmovdqu %ymm11, 224(%rsp) vmovdqu %ymm12, 256(%rsp) vmovdqu %ymm13, 288(%rsp) vmovdqu %ymm14, 320(%rsp) vmovdqu %ymm15, 352(%rsp) vpunpckldq %ymm1, %ymm0, %ymm8 vpunpckhdq %ymm1, %ymm0, %ymm0 vpunpckldq %ymm3, %ymm2, %ymm1 vpunpckhdq %ymm3, %ymm2, %ymm2 vpunpckldq %ymm5, %ymm4, %ymm3 vpunpckhdq %ymm5, %ymm4, %ymm4 vpunpckldq %ymm7, %ymm6, %ymm5 vpunpckhdq %ymm7, %ymm6, %ymm6 vpunpcklqdq %ymm1, %ymm8, %ymm7 vpunpcklqdq %ymm5, %ymm3, %ymm9 vpunpckhqdq %ymm1, %ymm8, %ymm1 vpunpckhqdq %ymm5, %ymm3, %ymm3 vpunpcklqdq %ymm2, %ymm0, %ymm5 vpunpcklqdq %ymm6, %ymm4, %ymm8 vpunpckhqdq %ymm2, %ymm0, %ymm0 vpunpckhqdq %ymm6, %ymm4, %ymm2 vperm2i128 $32, %ymm9, %ymm7, %ymm4 vperm2i128 $49, %ymm9, %ymm7, %ymm6 vperm2i128 $32, %ymm3, %ymm1, %ymm7 vperm2i128 $49, %ymm3, %ymm1, %ymm1 vperm2i128 $32, %ymm8, %ymm5, %ymm3 vperm2i128 $49, %ymm8, %ymm5, %ymm5 vperm2i128 $32, %ymm2, %ymm0, %ymm8 vperm2i128 $49, %ymm2, %ymm0, %ymm0 vmovdqu %ymm4, (%rdi) vmovdqu %ymm7, 64(%rdi) vmovdqu %ymm3, 128(%rdi) vmovdqu %ymm8, 192(%rdi) vmovdqu %ymm6, 256(%rdi) vmovdqu %ymm1, 320(%rdi) vmovdqu %ymm5, 384(%rdi) vmovdqu %ymm0, 448(%rdi) vmovdqu 128(%rsp), %ymm0 vmovdqu 192(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 320(%rsp), %ymm3 vpunpckldq 160(%rsp), %ymm0, %ymm4 vpunpckhdq 160(%rsp), %ymm0, %ymm0 vpunpckldq 224(%rsp), %ymm1, %ymm5 vpunpckhdq 224(%rsp), %ymm1, %ymm1 vpunpckldq 288(%rsp), %ymm2, %ymm6 vpunpckhdq 288(%rsp), %ymm2, %ymm2 vpunpckldq 352(%rsp), %ymm3, %ymm7 vpunpckhdq 352(%rsp), %ymm3, %ymm3 vpunpcklqdq %ymm5, %ymm4, %ymm8 vpunpcklqdq %ymm7, %ymm6, %ymm9 vpunpckhqdq %ymm5, %ymm4, %ymm4 vpunpckhqdq %ymm7, %ymm6, %ymm5 vpunpcklqdq %ymm1, %ymm0, %ymm6 vpunpcklqdq %ymm3, %ymm2, %ymm7 vpunpckhqdq %ymm1, %ymm0, %ymm0 vpunpckhqdq %ymm3, %ymm2, %ymm1 vperm2i128 $32, %ymm9, %ymm8, %ymm2 vperm2i128 $49, %ymm9, %ymm8, %ymm3 vperm2i128 $32, %ymm5, %ymm4, %ymm8 vperm2i128 $49, %ymm5, %ymm4, %ymm4 vperm2i128 $32, %ymm7, %ymm6, %ymm5 vperm2i128 $49, %ymm7, %ymm6, %ymm6 vperm2i128 $32, %ymm1, %ymm0, %ymm7 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vmovdqu %ymm2, 32(%rdi) vmovdqu %ymm8, 96(%rdi) vmovdqu %ymm5, 160(%rdi) vmovdqu %ymm7, 224(%rdi) vmovdqu %ymm3, 288(%rdi) vmovdqu %ymm4, 352(%rdi) vmovdqu %ymm6, 416(%rdi) vmovdqu %ymm0, 480(%rdi) addq $512, %rdi addq $-512, %rsi vmovdqu glob_data + 0(%rip), %ymm0 vpaddd 1024(%rsp), %ymm0, %ymm0 vmovdqu %ymm0, 1024(%rsp) Ljade_stream_chacha_chacha20_ietf_amd64_avx2$32: cmpq $512, %rsi jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$33 cmpq $0, %rsi jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2 vmovdqu 640(%rsp), %ymm0 vmovdqu 672(%rsp), %ymm1 vmovdqu 704(%rsp), %ymm2 vmovdqu 736(%rsp), %ymm3 vmovdqu 768(%rsp), %ymm4 vmovdqu 800(%rsp), %ymm5 vmovdqu 832(%rsp), %ymm6 vmovdqu 864(%rsp), %ymm7 vmovdqu 896(%rsp), %ymm8 vmovdqu 928(%rsp), %ymm9 vmovdqu 960(%rsp), %ymm10 vmovdqu 992(%rsp), %ymm11 vmovdqu 1024(%rsp), %ymm12 vmovdqu 1056(%rsp), %ymm13 vmovdqu 1088(%rsp), %ymm14 vmovdqu 1120(%rsp), %ymm15 vmovdqu %ymm15, 64(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$31: vpaddd %ymm4, %ymm0, %ymm0 vpxor %ymm0, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm4, %ymm0, %ymm0 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm0, %ymm12, %ymm12 vpxor %ymm10, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm6, %ymm6 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vmovdqu 64(%rsp), %ymm15 vmovdqu %ymm14, 96(%rsp) vpaddd %ymm5, %ymm1, %ymm1 vpxor %ymm1, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm5, %ymm1, %ymm1 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm1, %ymm13, %ymm13 vpxor %ymm11, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm11, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm6, %ymm1, %ymm1 vpxor %ymm1, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm6, %ymm1, %ymm1 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm1, %ymm12, %ymm12 vpxor %ymm10, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm5, %ymm5 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vmovdqu 96(%rsp), %ymm15 vmovdqu %ymm14, 64(%rsp) vpaddd %ymm7, %ymm2, %ymm2 vpxor %ymm2, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm7, %ymm2, %ymm2 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm2, %ymm13, %ymm13 vpxor %ymm9, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm9, %ymm4, %ymm4 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$31 vmovdqu 64(%rsp), %ymm15 vpaddd 640(%rsp), %ymm0, %ymm0 vpaddd 672(%rsp), %ymm1, %ymm1 vpaddd 704(%rsp), %ymm2, %ymm2 vpaddd 736(%rsp), %ymm3, %ymm3 vpaddd 768(%rsp), %ymm4, %ymm4 vpaddd 800(%rsp), %ymm5, %ymm5 vpaddd 832(%rsp), %ymm6, %ymm6 vpaddd 864(%rsp), %ymm7, %ymm7 vpaddd 896(%rsp), %ymm8, %ymm8 vpaddd 928(%rsp), %ymm9, %ymm9 vpaddd 960(%rsp), %ymm10, %ymm10 vpaddd 992(%rsp), %ymm11, %ymm11 vpaddd 1024(%rsp), %ymm12, %ymm12 vpaddd 1056(%rsp), %ymm13, %ymm13 vpaddd 1088(%rsp), %ymm14, %ymm14 vpaddd 1120(%rsp), %ymm15, %ymm15 vmovdqu %ymm8, 128(%rsp) vmovdqu %ymm9, 160(%rsp) vmovdqu %ymm10, 192(%rsp) vmovdqu %ymm11, 224(%rsp) vmovdqu %ymm12, 256(%rsp) vmovdqu %ymm13, 288(%rsp) vmovdqu %ymm14, 320(%rsp) vmovdqu %ymm15, 352(%rsp) vpunpckldq %ymm1, %ymm0, %ymm8 vpunpckhdq %ymm1, %ymm0, %ymm0 vpunpckldq %ymm3, %ymm2, %ymm1 vpunpckhdq %ymm3, %ymm2, %ymm2 vpunpckldq %ymm5, %ymm4, %ymm3 vpunpckhdq %ymm5, %ymm4, %ymm4 vpunpckldq %ymm7, %ymm6, %ymm5 vpunpckhdq %ymm7, %ymm6, %ymm6 vpunpcklqdq %ymm1, %ymm8, %ymm7 vpunpcklqdq %ymm5, %ymm3, %ymm9 vpunpckhqdq %ymm1, %ymm8, %ymm1 vpunpckhqdq %ymm5, %ymm3, %ymm3 vpunpcklqdq %ymm2, %ymm0, %ymm5 vpunpcklqdq %ymm6, %ymm4, %ymm8 vpunpckhqdq %ymm2, %ymm0, %ymm0 vpunpckhqdq %ymm6, %ymm4, %ymm2 vperm2i128 $32, %ymm9, %ymm7, %ymm4 vperm2i128 $49, %ymm9, %ymm7, %ymm6 vperm2i128 $32, %ymm3, %ymm1, %ymm7 vperm2i128 $49, %ymm3, %ymm1, %ymm1 vperm2i128 $32, %ymm8, %ymm5, %ymm3 vperm2i128 $49, %ymm8, %ymm5, %ymm5 vperm2i128 $32, %ymm2, %ymm0, %ymm8 vperm2i128 $49, %ymm2, %ymm0, %ymm0 vmovdqu %ymm4, 384(%rsp) vmovdqu %ymm7, 416(%rsp) vmovdqu %ymm3, 448(%rsp) vmovdqu %ymm8, 480(%rsp) vmovdqu %ymm6, 512(%rsp) vmovdqu %ymm1, 544(%rsp) vmovdqu %ymm5, 576(%rsp) vmovdqu %ymm0, 608(%rsp) vmovdqu 128(%rsp), %ymm0 vmovdqu 192(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 320(%rsp), %ymm3 vpunpckldq 160(%rsp), %ymm0, %ymm4 vpunpckhdq 160(%rsp), %ymm0, %ymm0 vpunpckldq 224(%rsp), %ymm1, %ymm5 vpunpckhdq 224(%rsp), %ymm1, %ymm1 vpunpckldq 288(%rsp), %ymm2, %ymm6 vpunpckhdq 288(%rsp), %ymm2, %ymm2 vpunpckldq 352(%rsp), %ymm3, %ymm7 vpunpckhdq 352(%rsp), %ymm3, %ymm3 vpunpcklqdq %ymm5, %ymm4, %ymm8 vpunpcklqdq %ymm7, %ymm6, %ymm9 vpunpckhqdq %ymm5, %ymm4, %ymm4 vpunpckhqdq %ymm7, %ymm6, %ymm5 vpunpcklqdq %ymm1, %ymm0, %ymm6 vpunpcklqdq %ymm3, %ymm2, %ymm7 vpunpckhqdq %ymm1, %ymm0, %ymm0 vpunpckhqdq %ymm3, %ymm2, %ymm1 vperm2i128 $32, %ymm9, %ymm8, %ymm2 vperm2i128 $49, %ymm9, %ymm8, %ymm3 vperm2i128 $32, %ymm5, %ymm4, %ymm8 vperm2i128 $49, %ymm5, %ymm4, %ymm4 vperm2i128 $32, %ymm7, %ymm6, %ymm5 vperm2i128 $49, %ymm7, %ymm6, %ymm6 vperm2i128 $32, %ymm1, %ymm0, %ymm7 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vmovdqu 384(%rsp), %ymm12 vmovdqu %ymm2, %ymm11 vmovdqu 416(%rsp), %ymm10 vmovdqu %ymm8, %ymm9 vmovdqu 448(%rsp), %ymm8 vmovdqu 480(%rsp), %ymm2 vmovdqu %ymm7, %ymm1 cmpq $256, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$30 vmovdqu %ymm12, (%rdi) vmovdqu %ymm11, 32(%rdi) vmovdqu %ymm10, 64(%rdi) vmovdqu %ymm9, 96(%rdi) vmovdqu %ymm8, 128(%rdi) vmovdqu %ymm5, 160(%rdi) vmovdqu %ymm2, 192(%rdi) vmovdqu %ymm1, 224(%rdi) addq $256, %rdi addq $-256, %rsi vmovdqu 512(%rsp), %ymm12 vmovdqu %ymm3, %ymm11 vmovdqu 544(%rsp), %ymm10 vmovdqu %ymm4, %ymm9 vmovdqu 576(%rsp), %ymm8 vmovdqu %ymm6, %ymm5 vmovdqu 608(%rsp), %ymm2 vmovdqu %ymm0, %ymm1 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$30: cmpq $128, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$29 vmovdqu %ymm12, (%rdi) vmovdqu %ymm11, 32(%rdi) vmovdqu %ymm10, 64(%rdi) vmovdqu %ymm9, 96(%rdi) addq $128, %rdi addq $-128, %rsi vmovdqu %ymm8, %ymm12 vmovdqu %ymm5, %ymm11 vmovdqu %ymm2, %ymm10 vmovdqu %ymm1, %ymm9 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$29: cmpq $64, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$28 vmovdqu %ymm12, (%rdi) vmovdqu %ymm11, 32(%rdi) addq $64, %rdi addq $-64, %rsi vmovdqu %ymm10, %ymm12 vmovdqu %ymm9, %ymm11 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$28: cmpq $32, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$27 vmovdqu %ymm12, (%rdi) addq $32, %rdi addq $-32, %rsi vmovdqu %ymm11, %ymm12 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$27: vmovdqu %xmm12, %xmm0 cmpq $16, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$26 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $-16, %rsi vextracti128 $1, %ymm12, %xmm0 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$26: vpextrq $0, %xmm0, %rax cmpq $8, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$23 movq %rax, (%rdi) addq $8, %rdi addq $-8, %rsi vpextrq $1, %xmm0, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$25: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$23 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$24: movb %al, %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi addq $-1, %rsi Ljade_stream_chacha_chacha20_ietf_amd64_avx2$23: cmpq $0, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$24 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$22: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$1: vmovdqu glob_data + 160(%rip), %ymm0 vmovdqu glob_data + 128(%rip), %ymm1 vmovdqu glob_data + 480(%rip), %ymm2 vbroadcasti128 (%rcx), %ymm3 vbroadcasti128 16(%rcx), %ymm4 vpxor %xmm5, %xmm5, %xmm5 vpinsrd $1, (%rdx), %xmm5, %xmm5 vpinsrq $1, 4(%rdx), %xmm5, %xmm5 vpxor %ymm6, %ymm6, %ymm6 vinserti128 $0, %xmm5, %ymm6, %ymm6 vinserti128 $1, %xmm5, %ymm6, %ymm5 vpaddd glob_data + 96(%rip), %ymm5, %ymm5 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$19 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$20: vmovdqu %ymm2, %ymm6 vmovdqu %ymm3, %ymm7 vmovdqu %ymm4, %ymm8 vmovdqu %ymm5, %ymm9 vmovdqu %ymm2, %ymm10 vmovdqu %ymm3, %ymm11 vmovdqu %ymm4, %ymm12 vmovdqu %ymm5, %ymm13 vpaddd glob_data + 64(%rip), %ymm13, %ymm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$21: vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $57, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $-109, %ymm9, %ymm9 vpshufd $57, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $-109, %ymm13, %ymm13 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $-109, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $57, %ymm9, %ymm9 vpshufd $-109, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $57, %ymm13, %ymm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$21 vpaddd %ymm2, %ymm6, %ymm6 vpaddd %ymm3, %ymm7, %ymm7 vpaddd %ymm4, %ymm8, %ymm8 vpaddd %ymm5, %ymm9, %ymm9 vpaddd %ymm2, %ymm10, %ymm10 vpaddd %ymm3, %ymm11, %ymm11 vpaddd %ymm4, %ymm12, %ymm12 vpaddd %ymm5, %ymm13, %ymm13 vpaddd glob_data + 64(%rip), %ymm13, %ymm13 vperm2i128 $32, %ymm7, %ymm6, %ymm14 vperm2i128 $32, %ymm9, %ymm8, %ymm15 vperm2i128 $49, %ymm7, %ymm6, %ymm6 vperm2i128 $49, %ymm9, %ymm8, %ymm7 vperm2i128 $32, %ymm11, %ymm10, %ymm8 vperm2i128 $32, %ymm13, %ymm12, %ymm9 vperm2i128 $49, %ymm11, %ymm10, %ymm10 vperm2i128 $49, %ymm13, %ymm12, %ymm11 vmovdqu %ymm14, (%rdi) vmovdqu %ymm15, 32(%rdi) vmovdqu %ymm6, 64(%rdi) vmovdqu %ymm7, 96(%rdi) vmovdqu %ymm8, 128(%rdi) vmovdqu %ymm9, 160(%rdi) vmovdqu %ymm10, 192(%rdi) vmovdqu %ymm11, 224(%rdi) addq $256, %rdi addq $-256, %rsi vpaddd glob_data + 32(%rip), %ymm5, %ymm5 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$19: cmpq $256, %rsi jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$20 cmpq $128, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$3 vmovdqu %ymm2, %ymm6 vmovdqu %ymm3, %ymm7 vmovdqu %ymm4, %ymm8 vmovdqu %ymm5, %ymm9 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$18: vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm0, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm10 vpsrld $20, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm1, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm10 vpsrld $25, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpshufd $57, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $-109, %ymm9, %ymm9 vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm0, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm10 vpsrld $20, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm1, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm10 vpsrld $25, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpshufd $-109, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $57, %ymm9, %ymm9 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$18 vpaddd %ymm2, %ymm6, %ymm0 vpaddd %ymm3, %ymm7, %ymm1 vpaddd %ymm4, %ymm8, %ymm2 vpaddd %ymm5, %ymm9, %ymm3 vperm2i128 $32, %ymm1, %ymm0, %ymm5 vperm2i128 $32, %ymm3, %ymm2, %ymm4 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vperm2i128 $49, %ymm3, %ymm2, %ymm1 cmpq $64, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$17 vmovdqu %ymm5, (%rdi) vmovdqu %ymm4, 32(%rdi) addq $64, %rdi addq $-64, %rsi vmovdqu %ymm0, %ymm5 vmovdqu %ymm1, %ymm4 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$17: cmpq $32, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$16 vmovdqu %ymm5, (%rdi) addq $32, %rdi addq $-32, %rsi vmovdqu %ymm4, %ymm5 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$16: vmovdqu %xmm5, %xmm0 cmpq $16, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$15 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $-16, %rsi vextracti128 $1, %ymm5, %xmm0 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$15: vpextrq $0, %xmm0, %rax cmpq $8, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$12 movq %rax, (%rdi) addq $8, %rdi addq $-8, %rsi vpextrq $1, %xmm0, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$14: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$12 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$13: movb %al, %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi addq $-1, %rsi Ljade_stream_chacha_chacha20_ietf_amd64_avx2$12: cmpq $0, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$13 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$3: vmovdqu %ymm2, %ymm6 vmovdqu %ymm3, %ymm7 vmovdqu %ymm4, %ymm8 vmovdqu %ymm5, %ymm9 vmovdqu %ymm2, %ymm10 vmovdqu %ymm3, %ymm11 vmovdqu %ymm4, %ymm12 vmovdqu %ymm5, %ymm13 vpaddd glob_data + 64(%rip), %ymm13, %ymm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$11: vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $57, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $-109, %ymm9, %ymm9 vpshufd $57, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $-109, %ymm13, %ymm13 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $-109, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $57, %ymm9, %ymm9 vpshufd $-109, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $57, %ymm13, %ymm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$11 vpaddd %ymm2, %ymm6, %ymm0 vpaddd %ymm3, %ymm7, %ymm1 vpaddd %ymm4, %ymm8, %ymm6 vpaddd %ymm5, %ymm9, %ymm7 vpaddd %ymm2, %ymm10, %ymm2 vpaddd %ymm3, %ymm11, %ymm3 vpaddd %ymm4, %ymm12, %ymm4 vpaddd %ymm5, %ymm13, %ymm5 vpaddd glob_data + 64(%rip), %ymm5, %ymm5 vperm2i128 $32, %ymm1, %ymm0, %ymm8 vperm2i128 $32, %ymm7, %ymm6, %ymm9 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vperm2i128 $49, %ymm7, %ymm6, %ymm1 vperm2i128 $32, %ymm3, %ymm2, %ymm7 vperm2i128 $32, %ymm5, %ymm4, %ymm6 vperm2i128 $49, %ymm3, %ymm2, %ymm2 vperm2i128 $49, %ymm5, %ymm4, %ymm3 vmovdqu %ymm8, (%rdi) vmovdqu %ymm9, 32(%rdi) vmovdqu %ymm0, 64(%rdi) vmovdqu %ymm1, 96(%rdi) addq $128, %rdi addq $-128, %rsi cmpq $64, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$10 vmovdqu %ymm7, (%rdi) vmovdqu %ymm6, 32(%rdi) addq $64, %rdi addq $-64, %rsi vmovdqu %ymm2, %ymm7 vmovdqu %ymm3, %ymm6 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$10: cmpq $32, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$9 vmovdqu %ymm7, (%rdi) addq $32, %rdi addq $-32, %rsi vmovdqu %ymm6, %ymm7 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$9: vmovdqu %xmm7, %xmm0 cmpq $16, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$8 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $-16, %rsi vextracti128 $1, %ymm7, %xmm0 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$8: vpextrq $0, %xmm0, %rax cmpq $8, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$5 movq %rax, (%rdi) addq $8, %rdi addq $-8, %rsi vpextrq $1, %xmm0, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$7: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$5 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$6: movb %al, %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi addq $-1, %rsi Ljade_stream_chacha_chacha20_ietf_amd64_avx2$5: cmpq $0, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$6 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$4: Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2: xorq %rax, %rax movq %r10, %rsp ret _jade_stream_chacha_chacha20_ietf_amd64_avx2_xor: jade_stream_chacha_chacha20_ietf_amd64_avx2_xor: movq %rsp, %r10 leaq -1152(%rsp), %rsp andq $-32, %rsp cmpq $257, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$1 vmovdqu glob_data + 160(%rip), %ymm0 vmovdqu glob_data + 128(%rip), %ymm1 vmovdqu %ymm0, (%rsp) vmovdqu %ymm1, 32(%rsp) vmovdqu glob_data + 256(%rip), %ymm0 vmovdqu glob_data + 288(%rip), %ymm1 vmovdqu glob_data + 320(%rip), %ymm2 vmovdqu glob_data + 352(%rip), %ymm3 vpbroadcastd (%r8), %ymm4 vpbroadcastd 4(%r8), %ymm5 vpbroadcastd 8(%r8), %ymm6 vpbroadcastd 12(%r8), %ymm7 vpbroadcastd 16(%r8), %ymm8 vpbroadcastd 20(%r8), %ymm9 vpbroadcastd 24(%r8), %ymm10 vpbroadcastd 28(%r8), %ymm11 vmovdqu glob_data + 224(%rip), %ymm12 vpbroadcastd (%rcx), %ymm13 vpbroadcastd 4(%rcx), %ymm14 vpbroadcastd 8(%rcx), %ymm15 vmovdqu %ymm0, 640(%rsp) vmovdqu %ymm1, 672(%rsp) vmovdqu %ymm2, 704(%rsp) vmovdqu %ymm3, 736(%rsp) vmovdqu %ymm4, 768(%rsp) vmovdqu %ymm5, 800(%rsp) vmovdqu %ymm6, 832(%rsp) vmovdqu %ymm7, 864(%rsp) vmovdqu %ymm8, 896(%rsp) vmovdqu %ymm9, 928(%rsp) vmovdqu %ymm10, 960(%rsp) vmovdqu %ymm11, 992(%rsp) vmovdqu %ymm12, 1024(%rsp) vmovdqu %ymm13, 1056(%rsp) vmovdqu %ymm14, 1088(%rsp) vmovdqu %ymm15, 1120(%rsp) jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$32 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$33: vmovdqu 640(%rsp), %ymm0 vmovdqu 672(%rsp), %ymm1 vmovdqu 704(%rsp), %ymm2 vmovdqu 736(%rsp), %ymm3 vmovdqu 768(%rsp), %ymm4 vmovdqu 800(%rsp), %ymm5 vmovdqu 832(%rsp), %ymm6 vmovdqu 864(%rsp), %ymm7 vmovdqu 896(%rsp), %ymm8 vmovdqu 928(%rsp), %ymm9 vmovdqu 960(%rsp), %ymm10 vmovdqu 992(%rsp), %ymm11 vmovdqu 1024(%rsp), %ymm12 vmovdqu 1056(%rsp), %ymm13 vmovdqu 1088(%rsp), %ymm14 vmovdqu 1120(%rsp), %ymm15 vmovdqu %ymm15, 64(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$34: vpaddd %ymm4, %ymm0, %ymm0 vpxor %ymm0, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm4, %ymm0, %ymm0 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm0, %ymm12, %ymm12 vpxor %ymm10, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm6, %ymm6 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vmovdqu 64(%rsp), %ymm15 vmovdqu %ymm14, 96(%rsp) vpaddd %ymm5, %ymm1, %ymm1 vpxor %ymm1, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm5, %ymm1, %ymm1 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm1, %ymm13, %ymm13 vpxor %ymm11, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm11, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm6, %ymm1, %ymm1 vpxor %ymm1, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm6, %ymm1, %ymm1 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm1, %ymm12, %ymm12 vpxor %ymm10, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm5, %ymm5 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vmovdqu 96(%rsp), %ymm15 vmovdqu %ymm14, 64(%rsp) vpaddd %ymm7, %ymm2, %ymm2 vpxor %ymm2, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm7, %ymm2, %ymm2 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm2, %ymm13, %ymm13 vpxor %ymm9, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm9, %ymm4, %ymm4 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$34 vmovdqu 64(%rsp), %ymm15 vpaddd 640(%rsp), %ymm0, %ymm0 vpaddd 672(%rsp), %ymm1, %ymm1 vpaddd 704(%rsp), %ymm2, %ymm2 vpaddd 736(%rsp), %ymm3, %ymm3 vpaddd 768(%rsp), %ymm4, %ymm4 vpaddd 800(%rsp), %ymm5, %ymm5 vpaddd 832(%rsp), %ymm6, %ymm6 vpaddd 864(%rsp), %ymm7, %ymm7 vpaddd 896(%rsp), %ymm8, %ymm8 vpaddd 928(%rsp), %ymm9, %ymm9 vpaddd 960(%rsp), %ymm10, %ymm10 vpaddd 992(%rsp), %ymm11, %ymm11 vpaddd 1024(%rsp), %ymm12, %ymm12 vpaddd 1056(%rsp), %ymm13, %ymm13 vpaddd 1088(%rsp), %ymm14, %ymm14 vpaddd 1120(%rsp), %ymm15, %ymm15 vmovdqu %ymm8, 128(%rsp) vmovdqu %ymm9, 160(%rsp) vmovdqu %ymm10, 192(%rsp) vmovdqu %ymm11, 224(%rsp) vmovdqu %ymm12, 256(%rsp) vmovdqu %ymm13, 288(%rsp) vmovdqu %ymm14, 320(%rsp) vmovdqu %ymm15, 352(%rsp) vpunpckldq %ymm1, %ymm0, %ymm8 vpunpckhdq %ymm1, %ymm0, %ymm0 vpunpckldq %ymm3, %ymm2, %ymm1 vpunpckhdq %ymm3, %ymm2, %ymm2 vpunpckldq %ymm5, %ymm4, %ymm3 vpunpckhdq %ymm5, %ymm4, %ymm4 vpunpckldq %ymm7, %ymm6, %ymm5 vpunpckhdq %ymm7, %ymm6, %ymm6 vpunpcklqdq %ymm1, %ymm8, %ymm7 vpunpcklqdq %ymm5, %ymm3, %ymm9 vpunpckhqdq %ymm1, %ymm8, %ymm1 vpunpckhqdq %ymm5, %ymm3, %ymm3 vpunpcklqdq %ymm2, %ymm0, %ymm5 vpunpcklqdq %ymm6, %ymm4, %ymm8 vpunpckhqdq %ymm2, %ymm0, %ymm0 vpunpckhqdq %ymm6, %ymm4, %ymm2 vperm2i128 $32, %ymm9, %ymm7, %ymm4 vperm2i128 $49, %ymm9, %ymm7, %ymm6 vperm2i128 $32, %ymm3, %ymm1, %ymm7 vperm2i128 $49, %ymm3, %ymm1, %ymm1 vperm2i128 $32, %ymm8, %ymm5, %ymm3 vperm2i128 $49, %ymm8, %ymm5, %ymm5 vperm2i128 $32, %ymm2, %ymm0, %ymm8 vperm2i128 $49, %ymm2, %ymm0, %ymm0 vpxor (%rsi), %ymm4, %ymm2 vpxor 64(%rsi), %ymm7, %ymm4 vpxor 128(%rsi), %ymm3, %ymm3 vpxor 192(%rsi), %ymm8, %ymm7 vpxor 256(%rsi), %ymm6, %ymm6 vpxor 320(%rsi), %ymm1, %ymm1 vpxor 384(%rsi), %ymm5, %ymm5 vpxor 448(%rsi), %ymm0, %ymm0 vmovdqu %ymm2, (%rdi) vmovdqu %ymm4, 64(%rdi) vmovdqu %ymm3, 128(%rdi) vmovdqu %ymm7, 192(%rdi) vmovdqu %ymm6, 256(%rdi) vmovdqu %ymm1, 320(%rdi) vmovdqu %ymm5, 384(%rdi) vmovdqu %ymm0, 448(%rdi) vmovdqu 128(%rsp), %ymm0 vmovdqu 192(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 320(%rsp), %ymm3 vpunpckldq 160(%rsp), %ymm0, %ymm4 vpunpckhdq 160(%rsp), %ymm0, %ymm0 vpunpckldq 224(%rsp), %ymm1, %ymm5 vpunpckhdq 224(%rsp), %ymm1, %ymm1 vpunpckldq 288(%rsp), %ymm2, %ymm6 vpunpckhdq 288(%rsp), %ymm2, %ymm2 vpunpckldq 352(%rsp), %ymm3, %ymm7 vpunpckhdq 352(%rsp), %ymm3, %ymm3 vpunpcklqdq %ymm5, %ymm4, %ymm8 vpunpcklqdq %ymm7, %ymm6, %ymm9 vpunpckhqdq %ymm5, %ymm4, %ymm4 vpunpckhqdq %ymm7, %ymm6, %ymm5 vpunpcklqdq %ymm1, %ymm0, %ymm6 vpunpcklqdq %ymm3, %ymm2, %ymm7 vpunpckhqdq %ymm1, %ymm0, %ymm0 vpunpckhqdq %ymm3, %ymm2, %ymm1 vperm2i128 $32, %ymm9, %ymm8, %ymm2 vperm2i128 $49, %ymm9, %ymm8, %ymm3 vperm2i128 $32, %ymm5, %ymm4, %ymm8 vperm2i128 $49, %ymm5, %ymm4, %ymm4 vperm2i128 $32, %ymm7, %ymm6, %ymm5 vperm2i128 $49, %ymm7, %ymm6, %ymm6 vperm2i128 $32, %ymm1, %ymm0, %ymm7 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vpxor 32(%rsi), %ymm2, %ymm1 vpxor 96(%rsi), %ymm8, %ymm2 vpxor 160(%rsi), %ymm5, %ymm5 vpxor 224(%rsi), %ymm7, %ymm7 vpxor 288(%rsi), %ymm3, %ymm3 vpxor 352(%rsi), %ymm4, %ymm4 vpxor 416(%rsi), %ymm6, %ymm6 vpxor 480(%rsi), %ymm0, %ymm0 vmovdqu %ymm1, 32(%rdi) vmovdqu %ymm2, 96(%rdi) vmovdqu %ymm5, 160(%rdi) vmovdqu %ymm7, 224(%rdi) vmovdqu %ymm3, 288(%rdi) vmovdqu %ymm4, 352(%rdi) vmovdqu %ymm6, 416(%rdi) vmovdqu %ymm0, 480(%rdi) addq $512, %rdi addq $512, %rsi addq $-512, %rdx vmovdqu glob_data + 0(%rip), %ymm0 vpaddd 1024(%rsp), %ymm0, %ymm0 vmovdqu %ymm0, 1024(%rsp) Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$32: cmpq $512, %rdx jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$33 cmpq $0, %rdx jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2 vmovdqu 640(%rsp), %ymm0 vmovdqu 672(%rsp), %ymm1 vmovdqu 704(%rsp), %ymm2 vmovdqu 736(%rsp), %ymm3 vmovdqu 768(%rsp), %ymm4 vmovdqu 800(%rsp), %ymm5 vmovdqu 832(%rsp), %ymm6 vmovdqu 864(%rsp), %ymm7 vmovdqu 896(%rsp), %ymm8 vmovdqu 928(%rsp), %ymm9 vmovdqu 960(%rsp), %ymm10 vmovdqu 992(%rsp), %ymm11 vmovdqu 1024(%rsp), %ymm12 vmovdqu 1056(%rsp), %ymm13 vmovdqu 1088(%rsp), %ymm14 vmovdqu 1120(%rsp), %ymm15 vmovdqu %ymm15, 64(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$31: vpaddd %ymm4, %ymm0, %ymm0 vpxor %ymm0, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm4, %ymm0, %ymm0 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm0, %ymm12, %ymm12 vpxor %ymm10, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm6, %ymm6 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vmovdqu 64(%rsp), %ymm15 vmovdqu %ymm14, 96(%rsp) vpaddd %ymm5, %ymm1, %ymm1 vpxor %ymm1, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm5, %ymm1, %ymm1 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm1, %ymm13, %ymm13 vpxor %ymm11, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm11, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm6, %ymm1, %ymm1 vpxor %ymm1, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm6, %ymm1, %ymm1 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm1, %ymm12, %ymm12 vpxor %ymm10, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm5, %ymm5 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vmovdqu 96(%rsp), %ymm15 vmovdqu %ymm14, 64(%rsp) vpaddd %ymm7, %ymm2, %ymm2 vpxor %ymm2, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm7, %ymm2, %ymm2 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm2, %ymm13, %ymm13 vpxor %ymm9, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm9, %ymm4, %ymm4 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$31 vmovdqu 64(%rsp), %ymm15 vpaddd 640(%rsp), %ymm0, %ymm0 vpaddd 672(%rsp), %ymm1, %ymm1 vpaddd 704(%rsp), %ymm2, %ymm2 vpaddd 736(%rsp), %ymm3, %ymm3 vpaddd 768(%rsp), %ymm4, %ymm4 vpaddd 800(%rsp), %ymm5, %ymm5 vpaddd 832(%rsp), %ymm6, %ymm6 vpaddd 864(%rsp), %ymm7, %ymm7 vpaddd 896(%rsp), %ymm8, %ymm8 vpaddd 928(%rsp), %ymm9, %ymm9 vpaddd 960(%rsp), %ymm10, %ymm10 vpaddd 992(%rsp), %ymm11, %ymm11 vpaddd 1024(%rsp), %ymm12, %ymm12 vpaddd 1056(%rsp), %ymm13, %ymm13 vpaddd 1088(%rsp), %ymm14, %ymm14 vpaddd 1120(%rsp), %ymm15, %ymm15 vmovdqu %ymm8, 128(%rsp) vmovdqu %ymm9, 160(%rsp) vmovdqu %ymm10, 192(%rsp) vmovdqu %ymm11, 224(%rsp) vmovdqu %ymm12, 256(%rsp) vmovdqu %ymm13, 288(%rsp) vmovdqu %ymm14, 320(%rsp) vmovdqu %ymm15, 352(%rsp) vpunpckldq %ymm1, %ymm0, %ymm8 vpunpckhdq %ymm1, %ymm0, %ymm0 vpunpckldq %ymm3, %ymm2, %ymm1 vpunpckhdq %ymm3, %ymm2, %ymm2 vpunpckldq %ymm5, %ymm4, %ymm3 vpunpckhdq %ymm5, %ymm4, %ymm4 vpunpckldq %ymm7, %ymm6, %ymm5 vpunpckhdq %ymm7, %ymm6, %ymm6 vpunpcklqdq %ymm1, %ymm8, %ymm7 vpunpcklqdq %ymm5, %ymm3, %ymm9 vpunpckhqdq %ymm1, %ymm8, %ymm1 vpunpckhqdq %ymm5, %ymm3, %ymm3 vpunpcklqdq %ymm2, %ymm0, %ymm5 vpunpcklqdq %ymm6, %ymm4, %ymm8 vpunpckhqdq %ymm2, %ymm0, %ymm0 vpunpckhqdq %ymm6, %ymm4, %ymm2 vperm2i128 $32, %ymm9, %ymm7, %ymm4 vperm2i128 $49, %ymm9, %ymm7, %ymm6 vperm2i128 $32, %ymm3, %ymm1, %ymm7 vperm2i128 $49, %ymm3, %ymm1, %ymm1 vperm2i128 $32, %ymm8, %ymm5, %ymm3 vperm2i128 $49, %ymm8, %ymm5, %ymm5 vperm2i128 $32, %ymm2, %ymm0, %ymm8 vperm2i128 $49, %ymm2, %ymm0, %ymm0 vmovdqu %ymm4, 384(%rsp) vmovdqu %ymm7, 416(%rsp) vmovdqu %ymm3, 448(%rsp) vmovdqu %ymm8, 480(%rsp) vmovdqu %ymm6, 512(%rsp) vmovdqu %ymm1, 544(%rsp) vmovdqu %ymm5, 576(%rsp) vmovdqu %ymm0, 608(%rsp) vmovdqu 128(%rsp), %ymm0 vmovdqu 192(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 320(%rsp), %ymm3 vpunpckldq 160(%rsp), %ymm0, %ymm4 vpunpckhdq 160(%rsp), %ymm0, %ymm0 vpunpckldq 224(%rsp), %ymm1, %ymm5 vpunpckhdq 224(%rsp), %ymm1, %ymm1 vpunpckldq 288(%rsp), %ymm2, %ymm6 vpunpckhdq 288(%rsp), %ymm2, %ymm2 vpunpckldq 352(%rsp), %ymm3, %ymm7 vpunpckhdq 352(%rsp), %ymm3, %ymm3 vpunpcklqdq %ymm5, %ymm4, %ymm8 vpunpcklqdq %ymm7, %ymm6, %ymm9 vpunpckhqdq %ymm5, %ymm4, %ymm4 vpunpckhqdq %ymm7, %ymm6, %ymm5 vpunpcklqdq %ymm1, %ymm0, %ymm6 vpunpcklqdq %ymm3, %ymm2, %ymm7 vpunpckhqdq %ymm1, %ymm0, %ymm0 vpunpckhqdq %ymm3, %ymm2, %ymm1 vperm2i128 $32, %ymm9, %ymm8, %ymm2 vperm2i128 $49, %ymm9, %ymm8, %ymm3 vperm2i128 $32, %ymm5, %ymm4, %ymm8 vperm2i128 $49, %ymm5, %ymm4, %ymm4 vperm2i128 $32, %ymm7, %ymm6, %ymm5 vperm2i128 $49, %ymm7, %ymm6, %ymm6 vperm2i128 $32, %ymm1, %ymm0, %ymm7 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vmovdqu 384(%rsp), %ymm1 vmovdqu %ymm2, %ymm12 vmovdqu 416(%rsp), %ymm11 vmovdqu %ymm8, %ymm10 vmovdqu 448(%rsp), %ymm9 vmovdqu %ymm5, %ymm8 vmovdqu 480(%rsp), %ymm5 vmovdqu %ymm7, %ymm2 cmpq $256, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$30 vpxor (%rsi), %ymm1, %ymm1 vmovdqu %ymm1, (%rdi) vpxor 32(%rsi), %ymm12, %ymm1 vmovdqu %ymm1, 32(%rdi) vpxor 64(%rsi), %ymm11, %ymm1 vmovdqu %ymm1, 64(%rdi) vpxor 96(%rsi), %ymm10, %ymm1 vmovdqu %ymm1, 96(%rdi) vpxor 128(%rsi), %ymm9, %ymm1 vmovdqu %ymm1, 128(%rdi) vpxor 160(%rsi), %ymm8, %ymm1 vmovdqu %ymm1, 160(%rdi) vpxor 192(%rsi), %ymm5, %ymm1 vmovdqu %ymm1, 192(%rdi) vpxor 224(%rsi), %ymm2, %ymm1 vmovdqu %ymm1, 224(%rdi) addq $256, %rdi addq $256, %rsi addq $-256, %rdx vmovdqu 512(%rsp), %ymm1 vmovdqu %ymm3, %ymm12 vmovdqu 544(%rsp), %ymm11 vmovdqu %ymm4, %ymm10 vmovdqu 576(%rsp), %ymm9 vmovdqu %ymm6, %ymm8 vmovdqu 608(%rsp), %ymm5 vmovdqu %ymm0, %ymm2 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$30: cmpq $128, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$29 vpxor (%rsi), %ymm1, %ymm0 vmovdqu %ymm0, (%rdi) vpxor 32(%rsi), %ymm12, %ymm0 vmovdqu %ymm0, 32(%rdi) vpxor 64(%rsi), %ymm11, %ymm0 vmovdqu %ymm0, 64(%rdi) vpxor 96(%rsi), %ymm10, %ymm0 vmovdqu %ymm0, 96(%rdi) addq $128, %rdi addq $128, %rsi addq $-128, %rdx vmovdqu %ymm9, %ymm1 vmovdqu %ymm8, %ymm12 vmovdqu %ymm5, %ymm11 vmovdqu %ymm2, %ymm10 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$29: cmpq $64, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$28 vpxor (%rsi), %ymm1, %ymm0 vmovdqu %ymm0, (%rdi) vpxor 32(%rsi), %ymm12, %ymm0 vmovdqu %ymm0, 32(%rdi) addq $64, %rdi addq $64, %rsi addq $-64, %rdx vmovdqu %ymm11, %ymm1 vmovdqu %ymm10, %ymm12 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$28: cmpq $32, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$27 vpxor (%rsi), %ymm1, %ymm0 vmovdqu %ymm0, (%rdi) addq $32, %rdi addq $32, %rsi addq $-32, %rdx vmovdqu %ymm12, %ymm1 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$27: vmovdqu %xmm1, %xmm0 cmpq $16, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$26 vpxor (%rsi), %xmm0, %xmm0 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $16, %rsi addq $-16, %rdx vextracti128 $1, %ymm1, %xmm0 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$26: vpextrq $0, %xmm0, %rax cmpq $8, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$23 xorq (%rsi), %rax movq %rax, (%rdi) addq $8, %rdi addq $8, %rsi addq $-8, %rdx vpextrq $1, %xmm0, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$25: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$23 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$24: movb %al, %cl xorb (%rsi), %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi incq %rsi addq $-1, %rdx Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$23: cmpq $0, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$24 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$22: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$1: vmovdqu glob_data + 160(%rip), %ymm0 vmovdqu glob_data + 128(%rip), %ymm1 vmovdqu glob_data + 480(%rip), %ymm2 vbroadcasti128 (%r8), %ymm3 vbroadcasti128 16(%r8), %ymm4 vpxor %xmm5, %xmm5, %xmm5 vpinsrd $1, (%rcx), %xmm5, %xmm5 vpinsrq $1, 4(%rcx), %xmm5, %xmm5 vpxor %ymm6, %ymm6, %ymm6 vinserti128 $0, %xmm5, %ymm6, %ymm6 vinserti128 $1, %xmm5, %ymm6, %ymm5 vpaddd glob_data + 96(%rip), %ymm5, %ymm5 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$19 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$20: vmovdqu %ymm2, %ymm6 vmovdqu %ymm3, %ymm7 vmovdqu %ymm4, %ymm8 vmovdqu %ymm5, %ymm9 vmovdqu %ymm2, %ymm10 vmovdqu %ymm3, %ymm11 vmovdqu %ymm4, %ymm12 vmovdqu %ymm5, %ymm13 vpaddd glob_data + 64(%rip), %ymm13, %ymm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$21: vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $57, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $-109, %ymm9, %ymm9 vpshufd $57, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $-109, %ymm13, %ymm13 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $-109, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $57, %ymm9, %ymm9 vpshufd $-109, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $57, %ymm13, %ymm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$21 vpaddd %ymm2, %ymm6, %ymm6 vpaddd %ymm3, %ymm7, %ymm7 vpaddd %ymm4, %ymm8, %ymm8 vpaddd %ymm5, %ymm9, %ymm9 vpaddd %ymm2, %ymm10, %ymm10 vpaddd %ymm3, %ymm11, %ymm11 vpaddd %ymm4, %ymm12, %ymm12 vpaddd %ymm5, %ymm13, %ymm13 vpaddd glob_data + 64(%rip), %ymm13, %ymm13 vperm2i128 $32, %ymm7, %ymm6, %ymm14 vperm2i128 $32, %ymm9, %ymm8, %ymm15 vperm2i128 $49, %ymm7, %ymm6, %ymm6 vperm2i128 $49, %ymm9, %ymm8, %ymm7 vperm2i128 $32, %ymm11, %ymm10, %ymm8 vperm2i128 $32, %ymm13, %ymm12, %ymm9 vperm2i128 $49, %ymm11, %ymm10, %ymm10 vperm2i128 $49, %ymm13, %ymm12, %ymm11 vpxor (%rsi), %ymm14, %ymm12 vmovdqu %ymm12, (%rdi) vpxor 32(%rsi), %ymm15, %ymm12 vmovdqu %ymm12, 32(%rdi) vpxor 64(%rsi), %ymm6, %ymm6 vmovdqu %ymm6, 64(%rdi) vpxor 96(%rsi), %ymm7, %ymm6 vmovdqu %ymm6, 96(%rdi) vpxor 128(%rsi), %ymm8, %ymm6 vmovdqu %ymm6, 128(%rdi) vpxor 160(%rsi), %ymm9, %ymm6 vmovdqu %ymm6, 160(%rdi) vpxor 192(%rsi), %ymm10, %ymm6 vmovdqu %ymm6, 192(%rdi) vpxor 224(%rsi), %ymm11, %ymm6 vmovdqu %ymm6, 224(%rdi) addq $256, %rdi addq $256, %rsi addq $-256, %rdx vpaddd glob_data + 32(%rip), %ymm5, %ymm5 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$19: cmpq $256, %rdx jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$20 cmpq $128, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$3 vmovdqu %ymm2, %ymm6 vmovdqu %ymm3, %ymm7 vmovdqu %ymm4, %ymm8 vmovdqu %ymm5, %ymm9 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$18: vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm0, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm10 vpsrld $20, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm1, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm10 vpsrld $25, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpshufd $57, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $-109, %ymm9, %ymm9 vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm0, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm10 vpsrld $20, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm1, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm10 vpsrld $25, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpshufd $-109, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $57, %ymm9, %ymm9 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$18 vpaddd %ymm2, %ymm6, %ymm0 vpaddd %ymm3, %ymm7, %ymm1 vpaddd %ymm4, %ymm8, %ymm2 vpaddd %ymm5, %ymm9, %ymm3 vperm2i128 $32, %ymm1, %ymm0, %ymm5 vperm2i128 $32, %ymm3, %ymm2, %ymm4 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vperm2i128 $49, %ymm3, %ymm2, %ymm1 cmpq $64, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$17 vpxor (%rsi), %ymm5, %ymm2 vmovdqu %ymm2, (%rdi) vpxor 32(%rsi), %ymm4, %ymm2 vmovdqu %ymm2, 32(%rdi) addq $64, %rdi addq $64, %rsi addq $-64, %rdx vmovdqu %ymm0, %ymm5 vmovdqu %ymm1, %ymm4 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$17: cmpq $32, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$16 vpxor (%rsi), %ymm5, %ymm0 vmovdqu %ymm0, (%rdi) addq $32, %rdi addq $32, %rsi addq $-32, %rdx vmovdqu %ymm4, %ymm5 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$16: vmovdqu %xmm5, %xmm0 cmpq $16, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$15 vpxor (%rsi), %xmm0, %xmm0 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $16, %rsi addq $-16, %rdx vextracti128 $1, %ymm5, %xmm0 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$15: vpextrq $0, %xmm0, %rax cmpq $8, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$12 xorq (%rsi), %rax movq %rax, (%rdi) addq $8, %rdi addq $8, %rsi addq $-8, %rdx vpextrq $1, %xmm0, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$14: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$12 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$13: movb %al, %cl xorb (%rsi), %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi incq %rsi addq $-1, %rdx Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$12: cmpq $0, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$13 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$3: vmovdqu %ymm2, %ymm6 vmovdqu %ymm3, %ymm7 vmovdqu %ymm4, %ymm8 vmovdqu %ymm5, %ymm9 vmovdqu %ymm2, %ymm10 vmovdqu %ymm3, %ymm11 vmovdqu %ymm4, %ymm12 vmovdqu %ymm5, %ymm13 vpaddd glob_data + 64(%rip), %ymm13, %ymm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$11: vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $57, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $-109, %ymm9, %ymm9 vpshufd $57, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $-109, %ymm13, %ymm13 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $-109, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $57, %ymm9, %ymm9 vpshufd $-109, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $57, %ymm13, %ymm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$11 vpaddd %ymm2, %ymm6, %ymm0 vpaddd %ymm3, %ymm7, %ymm1 vpaddd %ymm4, %ymm8, %ymm6 vpaddd %ymm5, %ymm9, %ymm7 vpaddd %ymm2, %ymm10, %ymm2 vpaddd %ymm3, %ymm11, %ymm3 vpaddd %ymm4, %ymm12, %ymm4 vpaddd %ymm5, %ymm13, %ymm5 vpaddd glob_data + 64(%rip), %ymm5, %ymm5 vperm2i128 $32, %ymm1, %ymm0, %ymm8 vperm2i128 $32, %ymm7, %ymm6, %ymm9 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vperm2i128 $49, %ymm7, %ymm6, %ymm1 vperm2i128 $32, %ymm3, %ymm2, %ymm7 vperm2i128 $32, %ymm5, %ymm4, %ymm6 vperm2i128 $49, %ymm3, %ymm2, %ymm2 vperm2i128 $49, %ymm5, %ymm4, %ymm3 vpxor (%rsi), %ymm8, %ymm4 vmovdqu %ymm4, (%rdi) vpxor 32(%rsi), %ymm9, %ymm4 vmovdqu %ymm4, 32(%rdi) vpxor 64(%rsi), %ymm0, %ymm0 vmovdqu %ymm0, 64(%rdi) vpxor 96(%rsi), %ymm1, %ymm0 vmovdqu %ymm0, 96(%rdi) addq $128, %rdi addq $128, %rsi addq $-128, %rdx cmpq $64, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$10 vpxor (%rsi), %ymm7, %ymm0 vmovdqu %ymm0, (%rdi) vpxor 32(%rsi), %ymm6, %ymm0 vmovdqu %ymm0, 32(%rdi) addq $64, %rdi addq $64, %rsi addq $-64, %rdx vmovdqu %ymm2, %ymm7 vmovdqu %ymm3, %ymm6 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$10: cmpq $32, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$9 vpxor (%rsi), %ymm7, %ymm0 vmovdqu %ymm0, (%rdi) addq $32, %rdi addq $32, %rsi addq $-32, %rdx vmovdqu %ymm6, %ymm7 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$9: vmovdqu %xmm7, %xmm0 cmpq $16, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$8 vpxor (%rsi), %xmm0, %xmm0 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $16, %rsi addq $-16, %rdx vextracti128 $1, %ymm7, %xmm0 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$8: vpextrq $0, %xmm0, %rax cmpq $8, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$5 xorq (%rsi), %rax movq %rax, (%rdi) addq $8, %rdi addq $8, %rsi addq $-8, %rdx vpextrq $1, %xmm0, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$7: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$5 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$6: movb %al, %cl xorb (%rsi), %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi incq %rsi addq $-1, %rdx Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$5: cmpq $0, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$6 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$4: Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2: xorq %rax, %rax movq %r10, %rsp ret .data .p2align 5 _glob_data: glob_data: .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 1 .byte 2 .byte 7 .byte 4 .byte 5 .byte 6 .byte 11 .byte 8 .byte 9 .byte 10 .byte 15 .byte 12 .byte 13 .byte 14 .byte 3 .byte 0 .byte 1 .byte 2 .byte 7 .byte 4 .byte 5 .byte 6 .byte 11 .byte 8 .byte 9 .byte 10 .byte 15 .byte 12 .byte 13 .byte 14 .byte 2 .byte 3 .byte 0 .byte 1 .byte 6 .byte 7 .byte 4 .byte 5 .byte 10 .byte 11 .byte 8 .byte 9 .byte 14 .byte 15 .byte 12 .byte 13 .byte 2 .byte 3 .byte 0 .byte 1 .byte 6 .byte 7 .byte 4 .byte 5 .byte 10 .byte 11 .byte 8 .byte 9 .byte 14 .byte 15 .byte 12 .byte 13 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 101 .byte 120 .byte 112 .byte 97 .byte 110 .byte 100 .byte 32 .byte 51 .byte 50 .byte 45 .byte 98 .byte 121 .byte 116 .byte 101 .byte 32 .byte 107 .byte 101 .byte 120 .byte 112 .byte 97 .byte 110 .byte 100 .byte 32 .byte 51 .byte 50 .byte 45 .byte 98 .byte 121 .byte 116 .byte 101 .byte 32 .byte 107
usenix-security-verdict/verdict
34,209
deps/libcrux/sys/libjade/jazz/sha3_224_avx2.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_224_amd64_avx2 .globl jade_hash_sha3_224_amd64_avx2 _jade_hash_sha3_224_amd64_avx2: jade_hash_sha3_224_amd64_avx2: movq %rsp, %rax leaq -40(%rsp), %rsp andq $-32, %rsp movq %rax, 32(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq $28, %r9 movb $6, %al movq $144, %rcx leaq -224(%rsp), %rsp leaq Ljade_hash_sha3_224_amd64_avx2$1(%rip), %r10 jmp L_keccak1600_avx2$1 Ljade_hash_sha3_224_amd64_avx2$1: leaq 224(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %rsp ret L_keccak1600_avx2$1: vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm5, %ymm5, %ymm5 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm2, %ymm2, %ymm2 leaq glob_data + 1152(%rip), %r8 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) jmp L_keccak1600_avx2$16 L_keccak1600_avx2$17: movq %rcx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$19 L_keccak1600_avx2$20: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$19: cmpq %r11, %rbx jb L_keccak1600_avx2$20 movq (%rsp), %r11 movq %r11, 8(%rsp) movq %r11, 16(%rsp) movq %r11, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 addq %rcx, %rsi subq %rcx, %rdx leaq glob_data + 384(%rip), %r11 movq $0, %rbx leaq glob_data + 192(%rip), %rbp leaq glob_data + 0(%rip), %r12 movq $24, %r13 L_keccak1600_avx2$18: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rbp), %ymm4, %ymm7 vpsrlvq (%r12), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rbp), %ymm0, %ymm7 vpsrlvq 64(%r12), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rbp), %ymm5, %ymm7 vpsrlvq 96(%r12), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rbp), %ymm1, %ymm5 vpsrlvq 128(%r12), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rbp), %ymm2, %ymm0 vpsrlvq 160(%r12), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rbp), %ymm0, %ymm1 vpsrlvq 32(%r12), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%r11,%rbx), %ymm6, %ymm6 addq $32, %rbx decq %r13 jne L_keccak1600_avx2$18 L_keccak1600_avx2$16: cmpq %rcx, %rdx jnb L_keccak1600_avx2$17 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) movq %rdx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$14 L_keccak1600_avx2$15: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$14: cmpq %r11, %rbx jb L_keccak1600_avx2$15 movq (%r8,%rbx,8), %r11 shlq $3, %r11 shlq $3, %rbx jmp L_keccak1600_avx2$12 L_keccak1600_avx2$13: movb (%rsi,%rbx), %bpl movb %bpl, (%rsp,%r11) incq %rbx incq %r11 L_keccak1600_avx2$12: cmpq %rdx, %rbx jb L_keccak1600_avx2$13 movb %al, (%rsp,%r11) movq %rcx, %rax addq $-1, %rax shrq $3, %rax movq (%r8,%rax,8), %rax shlq $3, %rax movq %rcx, %rdx addq $-1, %rdx andq $7, %rdx addq %rdx, %rax xorb $-128, (%rsp,%rax) movq (%rsp), %rax movq %rax, 8(%rsp) movq %rax, 16(%rsp) movq %rax, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 leaq glob_data + 1152(%rip), %rax jmp L_keccak1600_avx2$7 L_keccak1600_avx2$8: leaq glob_data + 384(%rip), %rdx movq $0, %rsi leaq glob_data + 192(%rip), %r8 leaq glob_data + 0(%rip), %r11 movq $24, %rbx L_keccak1600_avx2$11: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r8), %ymm4, %ymm7 vpsrlvq (%r11), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%r8), %ymm0, %ymm7 vpsrlvq 64(%r11), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%r8), %ymm5, %ymm7 vpsrlvq 96(%r11), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%r8), %ymm1, %ymm5 vpsrlvq 128(%r11), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%r8), %ymm2, %ymm0 vpsrlvq 160(%r11), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%r8), %ymm0, %ymm1 vpsrlvq 32(%r11), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rdx,%rsi), %ymm6, %ymm6 addq $32, %rsi decq %rbx jne L_keccak1600_avx2$11 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_avx2$9 L_keccak1600_avx2$10: movq (%rax,%rsi,8), %r8 movq (%rsp,%r8,8), %r8 movq %r8, (%rdi,%rsi,8) incq %rsi L_keccak1600_avx2$9: cmpq %rdx, %rsi jb L_keccak1600_avx2$10 addq %rcx, %rdi subq %rcx, %r9 L_keccak1600_avx2$7: cmpq %rcx, %r9 jnbe L_keccak1600_avx2$8 leaq glob_data + 384(%rip), %rcx movq $0, %rdx leaq glob_data + 192(%rip), %rsi leaq glob_data + 0(%rip), %r8 movq $24, %r11 L_keccak1600_avx2$6: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm4, %ymm7 vpsrlvq (%r8), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rsi), %ymm0, %ymm7 vpsrlvq 64(%r8), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rsi), %ymm5, %ymm7 vpsrlvq 96(%r8), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rsi), %ymm1, %ymm5 vpsrlvq 128(%r8), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rsi), %ymm2, %ymm0 vpsrlvq 160(%r8), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rsi), %ymm0, %ymm1 vpsrlvq 32(%r8), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r11 jne L_keccak1600_avx2$6 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %r9, %rcx shrq $3, %rcx movq $0, %rdx jmp L_keccak1600_avx2$4 L_keccak1600_avx2$5: movq (%rax,%rdx,8), %rsi movq (%rsp,%rsi,8), %rsi movq %rsi, (%rdi,%rdx,8) incq %rdx L_keccak1600_avx2$4: cmpq %rcx, %rdx jb L_keccak1600_avx2$5 movq (%rax,%rdx,8), %rax shlq $3, %rdx shlq $3, %rax jmp L_keccak1600_avx2$2 L_keccak1600_avx2$3: movb (%rsp,%rax), %cl movb %cl, (%rdi,%rdx) incq %rdx incq %rax L_keccak1600_avx2$2: cmpq %r9, %rdx jb L_keccak1600_avx2$3 jmp *%r10 .data .p2align 5 _glob_data: glob_data: .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 46 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 63 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 37 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 58 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 54 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 49 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 50 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 41 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 45 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 55 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 24 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 13 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 16 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 22 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 11 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 12 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 26 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 17 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0
usenix-security-verdict/verdict
32,893
deps/libcrux/sys/libjade/jazz/poly1305_avx2.s
.att_syntax .text .p2align 5 .globl _jade_onetimeauth_poly1305_amd64_avx2_verify .globl jade_onetimeauth_poly1305_amd64_avx2_verify .globl _jade_onetimeauth_poly1305_amd64_avx2 .globl jade_onetimeauth_poly1305_amd64_avx2 _jade_onetimeauth_poly1305_amd64_avx2_verify: jade_onetimeauth_poly1305_amd64_avx2_verify: movq %rsp, %rax leaq -696(%rsp), %rsp andq $-32, %rsp movq %rax, 688(%rsp) movq %rbx, 640(%rsp) movq %rbp, 648(%rsp) movq %r12, 656(%rsp) movq %r13, 664(%rsp) movq %r14, 672(%rsp) movq %r15, 680(%rsp) movq %rdx, %r14 movq %rcx, %r15 cmpq $256, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$1 movq $0, %rbx movq $0, %r12 movq $0, %r8 movq (%r15), %rbp movq 8(%r15), %r13 movq $1152921487695413247, %rax andq %rax, %rbp movq $1152921487695413244, %rax andq %rax, %r13 movq %r13, %r9 shrq $2, %r9 addq %r13, %r9 addq $16, %r15 jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$9 Ljade_onetimeauth_poly1305_amd64_avx2_verify$10: addq (%rsi), %rbx adcq 8(%rsi), %r12 adcq $1, %r8 movq %r9, %r11 imulq %r8, %r11 imulq %rbp, %r8 movq %rbp, %rax mulq %rbx movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r12 addq %rax, %r10 adcq %rdx, %r8 movq %r9, %rax mulq %r12 movq %rdx, %r12 addq %r11, %r12 movq %rax, %r11 movq %r13, %rax mulq %rbx addq %r11, %rcx adcq %rax, %r10 adcq %rdx, %r8 movq $-4, %rbx movq %r8, %rax shrq $2, %rax andq %r8, %rbx addq %rax, %rbx andq $3, %r8 addq %rcx, %rbx adcq %r10, %r12 adcq $0, %r8 addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx2_verify$9: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$10 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx2_verify$8 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %rbx adcq %rax, %r12 adcq $0, %r8 movq %r9, %rsi imulq %r8, %rsi imulq %rbp, %r8 movq %rbp, %rax mulq %rbx movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r12 addq %rax, %r10 adcq %rdx, %r8 movq %r9, %rax mulq %r12 movq %rdx, %r12 addq %rsi, %r12 movq %rax, %rsi movq %r13, %rax mulq %rbx addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %r8 movq $-4, %rbx movq %r8, %rax shrq $2, %rax andq %r8, %rbx addq %rax, %rbx andq $3, %r8 addq %rcx, %rbx adcq %r10, %r12 adcq $0, %r8 Ljade_onetimeauth_poly1305_amd64_avx2_verify$8: movq %rbx, %rax movq %r12, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r8 shrq $2, %r8 negq %r8 xorq %rbx, %rax xorq %r12, %rcx andq %r8, %rax andq %r8, %rcx xorq %rbx, %rax xorq %r12, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$2 Ljade_onetimeauth_poly1305_amd64_avx2_verify$1: movq (%r15), %rbp movq 8(%r15), %r13 movq $1152921487695413247, %rax andq %rax, %rbp movq $1152921487695413244, %rax andq %rax, %r13 movq %r13, %r12 shrq $2, %r12 addq %r13, %r12 addq $16, %r15 movq %rbp, %r8 movq %r13, %r11 movq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 344(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 376(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 408(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 440(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 472(%rsp) movq %r12, %r10 imulq %rbx, %r10 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %r12, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r13, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 336(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 368(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 400(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 432(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 464(%rsp) movq %r12, %r10 imulq %rbx, %r10 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %r12, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r13, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 328(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 360(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 392(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 424(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 456(%rsp) movq %r12, %r9 imulq %rbx, %r9 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r11 addq %rax, %r10 adcq %rdx, %rbx movq %r12, %rax mulq %r11 movq %rdx, %r11 addq %r9, %r11 movq %rax, %r9 movq %r13, %rax mulq %r8 addq %r9, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %rax movq %rbx, %rdx shrq $2, %rdx andq %rbx, %rax addq %rdx, %rax andq $3, %rbx addq %rcx, %rax adcq %r10, %r11 adcq $0, %rbx movq %rax, %rcx andq $67108863, %rcx movq %rcx, 320(%rsp) movq %rax, %rcx shrq $26, %rcx andq $67108863, %rcx movq %rcx, 352(%rsp) shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 384(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 416(%rsp) shrdq $40, %rbx, %r11 movq %r11, 448(%rsp) vpbroadcastq glob_data + 16(%rip), %ymm0 vpmuludq 352(%rsp), %ymm0, %ymm1 vmovdqu %ymm1, 64(%rsp) vpmuludq 384(%rsp), %ymm0, %ymm1 vmovdqu %ymm1, 96(%rsp) vpmuludq 416(%rsp), %ymm0, %ymm1 vmovdqu %ymm1, 128(%rsp) vpmuludq 448(%rsp), %ymm0, %ymm0 vmovdqu %ymm0, 160(%rsp) vpbroadcastq 320(%rsp), %ymm0 vmovdqu %ymm0, 480(%rsp) vpbroadcastq 352(%rsp), %ymm0 vmovdqu %ymm0, 512(%rsp) vpbroadcastq 384(%rsp), %ymm0 vmovdqu %ymm0, 544(%rsp) vpbroadcastq 416(%rsp), %ymm0 vmovdqu %ymm0, 576(%rsp) vpbroadcastq 448(%rsp), %ymm0 vmovdqu %ymm0, 608(%rsp) vpbroadcastq 64(%rsp), %ymm0 vmovdqu %ymm0, 192(%rsp) vpbroadcastq 96(%rsp), %ymm0 vmovdqu %ymm0, 224(%rsp) vpbroadcastq 128(%rsp), %ymm0 vmovdqu %ymm0, 256(%rsp) vpbroadcastq 160(%rsp), %ymm0 vmovdqu %ymm0, 288(%rsp) vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpbroadcastq glob_data + 8(%rip), %ymm7 vmovdqu %ymm7, (%rsp) vpbroadcastq glob_data + 0(%rip), %ymm2 vmovdqu %ymm2, 32(%rsp) vmovdqu (%rsi), %ymm2 vmovdqu 32(%rsi), %ymm5 addq $64, %rsi vperm2i128 $32, %ymm5, %ymm2, %ymm9 vperm2i128 $49, %ymm5, %ymm2, %ymm2 vpsrldq $6, %ymm9, %ymm5 vpsrldq $6, %ymm2, %ymm10 vpunpckhqdq %ymm2, %ymm9, %ymm8 vpunpcklqdq %ymm2, %ymm9, %ymm9 vpunpcklqdq %ymm10, %ymm5, %ymm10 vpsrlq $4, %ymm10, %ymm2 vpand %ymm7, %ymm2, %ymm2 vpsrlq $26, %ymm9, %ymm11 vpand %ymm7, %ymm9, %ymm5 vpsrlq $30, %ymm10, %ymm9 vpand %ymm7, %ymm9, %ymm9 vpsrlq $40, %ymm8, %ymm8 vpor 32(%rsp), %ymm8, %ymm10 vpand %ymm7, %ymm11, %ymm11 jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$6 Ljade_onetimeauth_poly1305_amd64_avx2_verify$7: vmovdqu 480(%rsp), %ymm8 vmovdqu 512(%rsp), %ymm7 vmovdqu 288(%rsp), %ymm13 vpaddq %ymm5, %ymm0, %ymm0 vpaddq %ymm11, %ymm1, %ymm1 vpmuludq %ymm8, %ymm0, %ymm5 vpaddq %ymm2, %ymm6, %ymm2 vpmuludq %ymm7, %ymm0, %ymm6 vpaddq %ymm9, %ymm3, %ymm3 vpmuludq %ymm8, %ymm1, %ymm9 vpaddq %ymm10, %ymm4, %ymm4 vpmuludq %ymm7, %ymm1, %ymm12 vpmuludq %ymm8, %ymm2, %ymm14 vpmuludq %ymm7, %ymm2, %ymm10 vpmuludq %ymm8, %ymm3, %ymm11 vpaddq %ymm6, %ymm9, %ymm6 vpmuludq %ymm7, %ymm3, %ymm9 vpaddq %ymm12, %ymm14, %ymm7 vpmuludq %ymm8, %ymm4, %ymm8 vpaddq %ymm10, %ymm11, %ymm11 vpaddq %ymm9, %ymm8, %ymm12 vpmuludq %ymm13, %ymm1, %ymm14 vmovdqu (%rsi), %ymm8 vpmuludq %ymm13, %ymm2, %ymm15 vmovdqu 544(%rsp), %ymm9 vpmuludq %ymm13, %ymm3, %ymm10 vpmuludq %ymm13, %ymm4, %ymm13 vpaddq %ymm14, %ymm5, %ymm5 vmovdqu 32(%rsi), %ymm14 vpaddq %ymm15, %ymm6, %ymm6 vpaddq %ymm10, %ymm7, %ymm10 vpaddq %ymm13, %ymm11, %ymm11 vpmuludq %ymm9, %ymm0, %ymm15 vperm2i128 $32, %ymm14, %ymm8, %ymm7 vpmuludq %ymm9, %ymm1, %ymm13 vperm2i128 $49, %ymm14, %ymm8, %ymm8 vpmuludq %ymm9, %ymm2, %ymm14 vpaddq %ymm15, %ymm10, %ymm9 vmovdqu 256(%rsp), %ymm10 vpaddq %ymm13, %ymm11, %ymm11 vpaddq %ymm14, %ymm12, %ymm12 vpmuludq %ymm10, %ymm2, %ymm2 vpmuludq %ymm10, %ymm3, %ymm13 vmovdqu 576(%rsp), %ymm14 vpmuludq %ymm10, %ymm4, %ymm10 vpsrldq $6, %ymm7, %ymm15 vpaddq %ymm2, %ymm5, %ymm2 vpsrldq $6, %ymm8, %ymm5 vpaddq %ymm13, %ymm6, %ymm6 vpaddq %ymm9, %ymm10, %ymm9 vmovdqu 224(%rsp), %ymm10 vpmuludq %ymm14, %ymm0, %ymm13 vpmuludq %ymm14, %ymm1, %ymm1 vpunpckhqdq %ymm8, %ymm7, %ymm14 vpunpcklqdq %ymm8, %ymm7, %ymm7 vpaddq %ymm13, %ymm11, %ymm11 vpaddq %ymm1, %ymm12, %ymm1 vpmuludq %ymm10, %ymm3, %ymm3 vpmuludq %ymm10, %ymm4, %ymm8 vpaddq %ymm3, %ymm2, %ymm2 vpaddq %ymm6, %ymm8, %ymm3 vmovdqu (%rsp), %ymm8 vpmuludq 192(%rsp), %ymm4, %ymm4 vpmuludq 608(%rsp), %ymm0, %ymm0 vpunpcklqdq %ymm5, %ymm15, %ymm10 vpsrlq $4, %ymm10, %ymm6 vpaddq %ymm4, %ymm2, %ymm2 vpsrlq $26, %ymm2, %ymm12 vpand %ymm8, %ymm2, %ymm4 vpand %ymm8, %ymm11, %ymm5 vpsrlq $26, %ymm11, %ymm13 vpaddq %ymm0, %ymm1, %ymm1 vpand %ymm8, %ymm6, %ymm2 vpsrlq $26, %ymm7, %ymm11 vpaddq %ymm12, %ymm3, %ymm0 vpaddq %ymm13, %ymm1, %ymm6 vpsrlq $26, %ymm0, %ymm1 vpsrlq $26, %ymm6, %ymm3 vpsllq $2, %ymm3, %ymm12 vpaddq %ymm12, %ymm3, %ymm13 vpand %ymm8, %ymm0, %ymm3 vpand %ymm8, %ymm6, %ymm12 vpaddq %ymm1, %ymm9, %ymm0 vpaddq %ymm13, %ymm4, %ymm1 vpsrlq $26, %ymm0, %ymm4 vpsrlq $26, %ymm1, %ymm9 vpand %ymm8, %ymm0, %ymm6 vpand %ymm8, %ymm1, %ymm0 vpaddq %ymm4, %ymm5, %ymm4 vpaddq %ymm9, %ymm3, %ymm1 vpsrlq $26, %ymm4, %ymm5 vpand %ymm8, %ymm4, %ymm3 vpaddq %ymm5, %ymm12, %ymm4 addq $64, %rsi vpand %ymm8, %ymm7, %ymm5 vpsrlq $30, %ymm10, %ymm7 vpand %ymm8, %ymm7, %ymm9 vpsrlq $40, %ymm14, %ymm7 vpor 32(%rsp), %ymm7, %ymm10 vpand %ymm8, %ymm11, %ymm11 addq $-64, %r14 Ljade_onetimeauth_poly1305_amd64_avx2_verify$6: cmpq $128, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$7 addq $-64, %r14 vmovdqu 320(%rsp), %ymm7 vmovdqu 352(%rsp), %ymm8 vmovdqu 160(%rsp), %ymm12 vpaddq %ymm5, %ymm0, %ymm0 vpaddq %ymm11, %ymm1, %ymm1 vpaddq %ymm2, %ymm6, %ymm2 vpaddq %ymm9, %ymm3, %ymm3 vpaddq %ymm10, %ymm4, %ymm4 vpmuludq %ymm7, %ymm0, %ymm5 vpmuludq %ymm7, %ymm1, %ymm6 vpmuludq %ymm7, %ymm2, %ymm9 vpmuludq %ymm7, %ymm3, %ymm10 vpmuludq %ymm7, %ymm4, %ymm7 vpmuludq %ymm8, %ymm0, %ymm11 vpmuludq %ymm8, %ymm1, %ymm13 vpmuludq %ymm8, %ymm2, %ymm14 vpmuludq %ymm8, %ymm3, %ymm8 vmovdqu 384(%rsp), %ymm15 vpaddq %ymm11, %ymm6, %ymm6 vpaddq %ymm13, %ymm9, %ymm9 vpaddq %ymm14, %ymm10, %ymm10 vpaddq %ymm8, %ymm7, %ymm7 vpmuludq %ymm12, %ymm1, %ymm8 vpmuludq %ymm12, %ymm2, %ymm11 vpmuludq %ymm12, %ymm3, %ymm13 vpmuludq %ymm12, %ymm4, %ymm12 vmovdqu 128(%rsp), %ymm14 vpaddq %ymm8, %ymm5, %ymm5 vpaddq %ymm11, %ymm6, %ymm6 vpaddq %ymm13, %ymm9, %ymm8 vpaddq %ymm12, %ymm10, %ymm10 vpmuludq %ymm15, %ymm0, %ymm13 vpmuludq %ymm15, %ymm1, %ymm11 vpmuludq %ymm15, %ymm2, %ymm12 vmovdqu 416(%rsp), %ymm9 vpaddq %ymm13, %ymm8, %ymm8 vpaddq %ymm11, %ymm10, %ymm10 vpaddq %ymm12, %ymm7, %ymm7 vpmuludq %ymm14, %ymm2, %ymm2 vpmuludq %ymm14, %ymm3, %ymm12 vpmuludq %ymm14, %ymm4, %ymm13 vmovdqu 96(%rsp), %ymm11 vpaddq %ymm2, %ymm5, %ymm5 vpaddq %ymm12, %ymm6, %ymm6 vpaddq %ymm8, %ymm13, %ymm2 vpmuludq %ymm9, %ymm0, %ymm8 vpmuludq %ymm9, %ymm1, %ymm9 vpaddq %ymm8, %ymm10, %ymm1 vpaddq %ymm9, %ymm7, %ymm7 vpmuludq %ymm11, %ymm3, %ymm3 vpmuludq %ymm11, %ymm4, %ymm8 vpaddq %ymm3, %ymm5, %ymm5 vpaddq %ymm6, %ymm8, %ymm3 vpmuludq 64(%rsp), %ymm4, %ymm4 vpmuludq 448(%rsp), %ymm0, %ymm0 vpaddq %ymm4, %ymm5, %ymm4 vmovdqu %ymm1, %ymm5 vpaddq %ymm0, %ymm7, %ymm6 vmovdqu (%rsp), %ymm0 vpsrlq $26, %ymm4, %ymm7 vpsrlq $26, %ymm5, %ymm8 vpand %ymm0, %ymm4, %ymm1 vpand %ymm0, %ymm5, %ymm4 vpaddq %ymm7, %ymm3, %ymm3 vpaddq %ymm8, %ymm6, %ymm5 vpsrlq $26, %ymm3, %ymm6 vpsrlq $26, %ymm5, %ymm7 vpsllq $2, %ymm7, %ymm8 vpaddq %ymm8, %ymm7, %ymm7 vpand %ymm0, %ymm3, %ymm8 vpand %ymm0, %ymm5, %ymm3 vpaddq %ymm6, %ymm2, %ymm2 vpaddq %ymm7, %ymm1, %ymm5 vpsrlq $26, %ymm2, %ymm6 vpsrlq $26, %ymm5, %ymm7 vpand %ymm0, %ymm2, %ymm1 vpand %ymm0, %ymm5, %ymm2 vpaddq %ymm6, %ymm4, %ymm4 vpaddq %ymm7, %ymm8, %ymm5 vpsrlq $26, %ymm4, %ymm6 vpand %ymm0, %ymm4, %ymm0 vpaddq %ymm6, %ymm3, %ymm3 vpsllq $26, %ymm5, %ymm4 vpaddq %ymm2, %ymm4, %ymm2 vpsllq $26, %ymm0, %ymm0 vpaddq %ymm1, %ymm0, %ymm0 vpsrldq $8, %ymm3, %ymm1 vpaddq %ymm3, %ymm1, %ymm1 vpermq $-128, %ymm1, %ymm1 vperm2i128 $32, %ymm0, %ymm2, %ymm3 vperm2i128 $49, %ymm0, %ymm2, %ymm0 vpaddq %ymm0, %ymm3, %ymm0 vpunpcklqdq %ymm1, %ymm0, %ymm2 vpunpckhqdq %ymm1, %ymm0, %ymm0 vpaddq %ymm0, %ymm2, %ymm0 vextracti128 $1, %ymm0, %xmm1 vpextrq $0, %xmm0, %rax vpextrq $0, %xmm1, %r9 vpextrq $1, %xmm1, %rcx movq %r9, %rbx shlq $52, %rbx shrq $12, %r9 movq %rcx, %r8 shrq $24, %r8 shlq $40, %rcx addq %rax, %rbx adcq %rcx, %r9 adcq $0, %r8 movq %r8, %rax movq %r8, %rcx andq $3, %r8 shrq $2, %rax andq $-4, %rcx addq %rcx, %rax addq %rax, %rbx adcq $0, %r9 adcq $0, %r8 jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$4 Ljade_onetimeauth_poly1305_amd64_avx2_verify$5: addq (%rsi), %rbx adcq 8(%rsi), %r9 adcq $1, %r8 movq %r12, %r10 imulq %r8, %r10 imulq %rbp, %r8 movq %rbp, %rax mulq %rbx movq %rax, %rcx movq %rdx, %r11 movq %rbp, %rax mulq %r9 addq %rax, %r11 adcq %rdx, %r8 movq %r12, %rax mulq %r9 movq %rdx, %r9 addq %r10, %r9 movq %rax, %r10 movq %r13, %rax mulq %rbx addq %r10, %rcx adcq %rax, %r11 adcq %rdx, %r8 movq $-4, %rbx movq %r8, %rax shrq $2, %rax andq %r8, %rbx addq %rax, %rbx andq $3, %r8 addq %rcx, %rbx adcq %r11, %r9 adcq $0, %r8 addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx2_verify$4: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$5 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx2_verify$3 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %rbx adcq %rax, %r9 adcq $0, %r8 movq %r12, %rsi imulq %r8, %rsi imulq %rbp, %r8 movq %rbp, %rax mulq %rbx movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r9 addq %rax, %r10 adcq %rdx, %r8 movq %r12, %rax mulq %r9 movq %rdx, %r9 addq %rsi, %r9 movq %rax, %rsi movq %r13, %rax mulq %rbx addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %r8 movq $-4, %rbx movq %r8, %rax shrq $2, %rax andq %r8, %rbx addq %rax, %rbx andq $3, %r8 addq %rcx, %rbx adcq %r10, %r9 adcq $0, %r8 Ljade_onetimeauth_poly1305_amd64_avx2_verify$3: movq %rbx, %rax movq %r9, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r8 shrq $2, %r8 negq %r8 xorq %rbx, %rax xorq %r9, %rcx andq %r8, %rax andq %r8, %rcx xorq %rbx, %rax xorq %r9, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx Ljade_onetimeauth_poly1305_amd64_avx2_verify$2: movq %rax, %rdx xorq (%rdi), %rdx xorq 8(%rdi), %rcx orq %rcx, %rdx xorq %rax, %rax subq $1, %rdx adcq $0, %rax addq $-1, %rax movq 640(%rsp), %rbx movq 648(%rsp), %rbp movq 656(%rsp), %r12 movq 664(%rsp), %r13 movq 672(%rsp), %r14 movq 680(%rsp), %r15 movq 688(%rsp), %rsp ret _jade_onetimeauth_poly1305_amd64_avx2: jade_onetimeauth_poly1305_amd64_avx2: movq %rsp, %rax leaq -696(%rsp), %rsp andq $-32, %rsp movq %rax, 688(%rsp) movq %rbx, 640(%rsp) movq %rbp, 648(%rsp) movq %r12, 656(%rsp) movq %r13, 664(%rsp) movq %r14, 672(%rsp) movq %r15, 680(%rsp) movq %rdx, %r14 movq %rcx, %r15 cmpq $256, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2$1 movq $0, %rbp movq $0, %r12 movq $0, %r8 movq (%r15), %r9 movq 8(%r15), %r13 movq $1152921487695413247, %rax andq %rax, %r9 movq $1152921487695413244, %rax andq %rax, %r13 movq %r13, %rbx shrq $2, %rbx addq %r13, %rbx addq $16, %r15 jmp Ljade_onetimeauth_poly1305_amd64_avx2$9 Ljade_onetimeauth_poly1305_amd64_avx2$10: addq (%rsi), %rbp adcq 8(%rsi), %r12 adcq $1, %r8 movq %rbx, %r11 imulq %r8, %r11 imulq %r9, %r8 movq %r9, %rax mulq %rbp movq %rax, %rcx movq %rdx, %r10 movq %r9, %rax mulq %r12 addq %rax, %r10 adcq %rdx, %r8 movq %rbx, %rax mulq %r12 movq %rdx, %r12 addq %r11, %r12 movq %rax, %r11 movq %r13, %rax mulq %rbp addq %r11, %rcx adcq %rax, %r10 adcq %rdx, %r8 movq $-4, %rbp movq %r8, %rax shrq $2, %rax andq %r8, %rbp addq %rax, %rbp andq $3, %r8 addq %rcx, %rbp adcq %r10, %r12 adcq $0, %r8 addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx2$9: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2$10 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx2$8 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %rbp adcq %rax, %r12 adcq $0, %r8 movq %rbx, %rsi imulq %r8, %rsi imulq %r9, %r8 movq %r9, %rax mulq %rbp movq %rax, %rcx movq %rdx, %r10 movq %r9, %rax mulq %r12 addq %rax, %r10 adcq %rdx, %r8 movq %rbx, %rax mulq %r12 movq %rdx, %r12 addq %rsi, %r12 movq %rax, %rsi movq %r13, %rax mulq %rbp addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %r8 movq $-4, %rbp movq %r8, %rax shrq $2, %rax andq %r8, %rbp addq %rax, %rbp andq $3, %r8 addq %rcx, %rbp adcq %r10, %r12 adcq $0, %r8 Ljade_onetimeauth_poly1305_amd64_avx2$8: movq %rbp, %rax movq %r12, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r8 shrq $2, %r8 negq %r8 xorq %rbp, %rax xorq %r12, %rcx andq %r8, %rax andq %r8, %rcx xorq %rbp, %rax xorq %r12, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx jmp Ljade_onetimeauth_poly1305_amd64_avx2$2 Ljade_onetimeauth_poly1305_amd64_avx2$1: movq (%r15), %r13 movq 8(%r15), %r12 movq $1152921487695413247, %rax andq %rax, %r13 movq $1152921487695413244, %rax andq %rax, %r12 movq %r12, %rbp shrq $2, %rbp addq %r12, %rbp addq $16, %r15 movq %r13, %r8 movq %r12, %r11 movq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 344(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 376(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 408(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 440(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 472(%rsp) movq %rbp, %r10 imulq %rbx, %r10 imulq %r13, %rbx movq %r13, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %r13, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %rbp, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r12, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 336(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 368(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 400(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 432(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 464(%rsp) movq %rbp, %r10 imulq %rbx, %r10 imulq %r13, %rbx movq %r13, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %r13, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %rbp, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r12, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 328(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 360(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 392(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 424(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 456(%rsp) movq %rbp, %r9 imulq %rbx, %r9 imulq %r13, %rbx movq %r13, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r10 movq %r13, %rax mulq %r11 addq %rax, %r10 adcq %rdx, %rbx movq %rbp, %rax mulq %r11 movq %rdx, %r11 addq %r9, %r11 movq %rax, %r9 movq %r12, %rax mulq %r8 addq %r9, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %rax movq %rbx, %rdx shrq $2, %rdx andq %rbx, %rax addq %rdx, %rax andq $3, %rbx addq %rcx, %rax adcq %r10, %r11 adcq $0, %rbx movq %rax, %rcx andq $67108863, %rcx movq %rcx, 320(%rsp) movq %rax, %rcx shrq $26, %rcx andq $67108863, %rcx movq %rcx, 352(%rsp) shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 384(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 416(%rsp) shrdq $40, %rbx, %r11 movq %r11, 448(%rsp) vpbroadcastq glob_data + 16(%rip), %ymm0 vpmuludq 352(%rsp), %ymm0, %ymm1 vmovdqu %ymm1, 64(%rsp) vpmuludq 384(%rsp), %ymm0, %ymm1 vmovdqu %ymm1, 96(%rsp) vpmuludq 416(%rsp), %ymm0, %ymm1 vmovdqu %ymm1, 128(%rsp) vpmuludq 448(%rsp), %ymm0, %ymm0 vmovdqu %ymm0, 160(%rsp) vpbroadcastq 320(%rsp), %ymm0 vmovdqu %ymm0, 480(%rsp) vpbroadcastq 352(%rsp), %ymm0 vmovdqu %ymm0, 512(%rsp) vpbroadcastq 384(%rsp), %ymm0 vmovdqu %ymm0, 544(%rsp) vpbroadcastq 416(%rsp), %ymm0 vmovdqu %ymm0, 576(%rsp) vpbroadcastq 448(%rsp), %ymm0 vmovdqu %ymm0, 608(%rsp) vpbroadcastq 64(%rsp), %ymm0 vmovdqu %ymm0, 192(%rsp) vpbroadcastq 96(%rsp), %ymm0 vmovdqu %ymm0, 224(%rsp) vpbroadcastq 128(%rsp), %ymm0 vmovdqu %ymm0, 256(%rsp) vpbroadcastq 160(%rsp), %ymm0 vmovdqu %ymm0, 288(%rsp) vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpbroadcastq glob_data + 8(%rip), %ymm7 vmovdqu %ymm7, (%rsp) vpbroadcastq glob_data + 0(%rip), %ymm2 vmovdqu %ymm2, 32(%rsp) vmovdqu (%rsi), %ymm2 vmovdqu 32(%rsi), %ymm5 addq $64, %rsi vperm2i128 $32, %ymm5, %ymm2, %ymm9 vperm2i128 $49, %ymm5, %ymm2, %ymm2 vpsrldq $6, %ymm9, %ymm5 vpsrldq $6, %ymm2, %ymm10 vpunpckhqdq %ymm2, %ymm9, %ymm8 vpunpcklqdq %ymm2, %ymm9, %ymm9 vpunpcklqdq %ymm10, %ymm5, %ymm10 vpsrlq $4, %ymm10, %ymm2 vpand %ymm7, %ymm2, %ymm2 vpsrlq $26, %ymm9, %ymm11 vpand %ymm7, %ymm9, %ymm5 vpsrlq $30, %ymm10, %ymm9 vpand %ymm7, %ymm9, %ymm9 vpsrlq $40, %ymm8, %ymm8 vpor 32(%rsp), %ymm8, %ymm10 vpand %ymm7, %ymm11, %ymm11 jmp Ljade_onetimeauth_poly1305_amd64_avx2$6 Ljade_onetimeauth_poly1305_amd64_avx2$7: vmovdqu 480(%rsp), %ymm8 vmovdqu 512(%rsp), %ymm7 vmovdqu 288(%rsp), %ymm13 vpaddq %ymm5, %ymm0, %ymm0 vpaddq %ymm11, %ymm1, %ymm1 vpmuludq %ymm8, %ymm0, %ymm5 vpaddq %ymm2, %ymm6, %ymm2 vpmuludq %ymm7, %ymm0, %ymm6 vpaddq %ymm9, %ymm3, %ymm3 vpmuludq %ymm8, %ymm1, %ymm9 vpaddq %ymm10, %ymm4, %ymm4 vpmuludq %ymm7, %ymm1, %ymm12 vpmuludq %ymm8, %ymm2, %ymm14 vpmuludq %ymm7, %ymm2, %ymm10 vpmuludq %ymm8, %ymm3, %ymm11 vpaddq %ymm6, %ymm9, %ymm6 vpmuludq %ymm7, %ymm3, %ymm9 vpaddq %ymm12, %ymm14, %ymm7 vpmuludq %ymm8, %ymm4, %ymm8 vpaddq %ymm10, %ymm11, %ymm11 vpaddq %ymm9, %ymm8, %ymm12 vpmuludq %ymm13, %ymm1, %ymm14 vmovdqu (%rsi), %ymm8 vpmuludq %ymm13, %ymm2, %ymm15 vmovdqu 544(%rsp), %ymm9 vpmuludq %ymm13, %ymm3, %ymm10 vpmuludq %ymm13, %ymm4, %ymm13 vpaddq %ymm14, %ymm5, %ymm5 vmovdqu 32(%rsi), %ymm14 vpaddq %ymm15, %ymm6, %ymm6 vpaddq %ymm10, %ymm7, %ymm10 vpaddq %ymm13, %ymm11, %ymm11 vpmuludq %ymm9, %ymm0, %ymm15 vperm2i128 $32, %ymm14, %ymm8, %ymm7 vpmuludq %ymm9, %ymm1, %ymm13 vperm2i128 $49, %ymm14, %ymm8, %ymm8 vpmuludq %ymm9, %ymm2, %ymm14 vpaddq %ymm15, %ymm10, %ymm9 vmovdqu 256(%rsp), %ymm10 vpaddq %ymm13, %ymm11, %ymm11 vpaddq %ymm14, %ymm12, %ymm12 vpmuludq %ymm10, %ymm2, %ymm2 vpmuludq %ymm10, %ymm3, %ymm13 vmovdqu 576(%rsp), %ymm14 vpmuludq %ymm10, %ymm4, %ymm10 vpsrldq $6, %ymm7, %ymm15 vpaddq %ymm2, %ymm5, %ymm2 vpsrldq $6, %ymm8, %ymm5 vpaddq %ymm13, %ymm6, %ymm6 vpaddq %ymm9, %ymm10, %ymm9 vmovdqu 224(%rsp), %ymm10 vpmuludq %ymm14, %ymm0, %ymm13 vpmuludq %ymm14, %ymm1, %ymm1 vpunpckhqdq %ymm8, %ymm7, %ymm14 vpunpcklqdq %ymm8, %ymm7, %ymm7 vpaddq %ymm13, %ymm11, %ymm11 vpaddq %ymm1, %ymm12, %ymm1 vpmuludq %ymm10, %ymm3, %ymm3 vpmuludq %ymm10, %ymm4, %ymm8 vpaddq %ymm3, %ymm2, %ymm2 vpaddq %ymm6, %ymm8, %ymm3 vmovdqu (%rsp), %ymm8 vpmuludq 192(%rsp), %ymm4, %ymm4 vpmuludq 608(%rsp), %ymm0, %ymm0 vpunpcklqdq %ymm5, %ymm15, %ymm10 vpsrlq $4, %ymm10, %ymm6 vpaddq %ymm4, %ymm2, %ymm2 vpsrlq $26, %ymm2, %ymm12 vpand %ymm8, %ymm2, %ymm4 vpand %ymm8, %ymm11, %ymm5 vpsrlq $26, %ymm11, %ymm13 vpaddq %ymm0, %ymm1, %ymm1 vpand %ymm8, %ymm6, %ymm2 vpsrlq $26, %ymm7, %ymm11 vpaddq %ymm12, %ymm3, %ymm0 vpaddq %ymm13, %ymm1, %ymm6 vpsrlq $26, %ymm0, %ymm1 vpsrlq $26, %ymm6, %ymm3 vpsllq $2, %ymm3, %ymm12 vpaddq %ymm12, %ymm3, %ymm13 vpand %ymm8, %ymm0, %ymm3 vpand %ymm8, %ymm6, %ymm12 vpaddq %ymm1, %ymm9, %ymm0 vpaddq %ymm13, %ymm4, %ymm1 vpsrlq $26, %ymm0, %ymm4 vpsrlq $26, %ymm1, %ymm9 vpand %ymm8, %ymm0, %ymm6 vpand %ymm8, %ymm1, %ymm0 vpaddq %ymm4, %ymm5, %ymm4 vpaddq %ymm9, %ymm3, %ymm1 vpsrlq $26, %ymm4, %ymm5 vpand %ymm8, %ymm4, %ymm3 vpaddq %ymm5, %ymm12, %ymm4 addq $64, %rsi vpand %ymm8, %ymm7, %ymm5 vpsrlq $30, %ymm10, %ymm7 vpand %ymm8, %ymm7, %ymm9 vpsrlq $40, %ymm14, %ymm7 vpor 32(%rsp), %ymm7, %ymm10 vpand %ymm8, %ymm11, %ymm11 addq $-64, %r14 Ljade_onetimeauth_poly1305_amd64_avx2$6: cmpq $128, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2$7 addq $-64, %r14 vmovdqu 320(%rsp), %ymm7 vmovdqu 352(%rsp), %ymm8 vmovdqu 160(%rsp), %ymm12 vpaddq %ymm5, %ymm0, %ymm0 vpaddq %ymm11, %ymm1, %ymm1 vpaddq %ymm2, %ymm6, %ymm2 vpaddq %ymm9, %ymm3, %ymm3 vpaddq %ymm10, %ymm4, %ymm4 vpmuludq %ymm7, %ymm0, %ymm5 vpmuludq %ymm7, %ymm1, %ymm6 vpmuludq %ymm7, %ymm2, %ymm9 vpmuludq %ymm7, %ymm3, %ymm10 vpmuludq %ymm7, %ymm4, %ymm7 vpmuludq %ymm8, %ymm0, %ymm11 vpmuludq %ymm8, %ymm1, %ymm13 vpmuludq %ymm8, %ymm2, %ymm14 vpmuludq %ymm8, %ymm3, %ymm8 vmovdqu 384(%rsp), %ymm15 vpaddq %ymm11, %ymm6, %ymm6 vpaddq %ymm13, %ymm9, %ymm9 vpaddq %ymm14, %ymm10, %ymm10 vpaddq %ymm8, %ymm7, %ymm7 vpmuludq %ymm12, %ymm1, %ymm8 vpmuludq %ymm12, %ymm2, %ymm11 vpmuludq %ymm12, %ymm3, %ymm13 vpmuludq %ymm12, %ymm4, %ymm12 vmovdqu 128(%rsp), %ymm14 vpaddq %ymm8, %ymm5, %ymm5 vpaddq %ymm11, %ymm6, %ymm6 vpaddq %ymm13, %ymm9, %ymm8 vpaddq %ymm12, %ymm10, %ymm10 vpmuludq %ymm15, %ymm0, %ymm13 vpmuludq %ymm15, %ymm1, %ymm11 vpmuludq %ymm15, %ymm2, %ymm12 vmovdqu 416(%rsp), %ymm9 vpaddq %ymm13, %ymm8, %ymm8 vpaddq %ymm11, %ymm10, %ymm10 vpaddq %ymm12, %ymm7, %ymm7 vpmuludq %ymm14, %ymm2, %ymm2 vpmuludq %ymm14, %ymm3, %ymm12 vpmuludq %ymm14, %ymm4, %ymm13 vmovdqu 96(%rsp), %ymm11 vpaddq %ymm2, %ymm5, %ymm5 vpaddq %ymm12, %ymm6, %ymm6 vpaddq %ymm8, %ymm13, %ymm2 vpmuludq %ymm9, %ymm0, %ymm8 vpmuludq %ymm9, %ymm1, %ymm9 vpaddq %ymm8, %ymm10, %ymm1 vpaddq %ymm9, %ymm7, %ymm7 vpmuludq %ymm11, %ymm3, %ymm3 vpmuludq %ymm11, %ymm4, %ymm8 vpaddq %ymm3, %ymm5, %ymm5 vpaddq %ymm6, %ymm8, %ymm3 vpmuludq 64(%rsp), %ymm4, %ymm4 vpmuludq 448(%rsp), %ymm0, %ymm0 vpaddq %ymm4, %ymm5, %ymm4 vmovdqu %ymm1, %ymm5 vpaddq %ymm0, %ymm7, %ymm6 vmovdqu (%rsp), %ymm0 vpsrlq $26, %ymm4, %ymm7 vpsrlq $26, %ymm5, %ymm8 vpand %ymm0, %ymm4, %ymm1 vpand %ymm0, %ymm5, %ymm4 vpaddq %ymm7, %ymm3, %ymm3 vpaddq %ymm8, %ymm6, %ymm5 vpsrlq $26, %ymm3, %ymm6 vpsrlq $26, %ymm5, %ymm7 vpsllq $2, %ymm7, %ymm8 vpaddq %ymm8, %ymm7, %ymm7 vpand %ymm0, %ymm3, %ymm8 vpand %ymm0, %ymm5, %ymm3 vpaddq %ymm6, %ymm2, %ymm2 vpaddq %ymm7, %ymm1, %ymm5 vpsrlq $26, %ymm2, %ymm6 vpsrlq $26, %ymm5, %ymm7 vpand %ymm0, %ymm2, %ymm1 vpand %ymm0, %ymm5, %ymm2 vpaddq %ymm6, %ymm4, %ymm4 vpaddq %ymm7, %ymm8, %ymm5 vpsrlq $26, %ymm4, %ymm6 vpand %ymm0, %ymm4, %ymm0 vpaddq %ymm6, %ymm3, %ymm3 vpsllq $26, %ymm5, %ymm4 vpaddq %ymm2, %ymm4, %ymm2 vpsllq $26, %ymm0, %ymm0 vpaddq %ymm1, %ymm0, %ymm0 vpsrldq $8, %ymm3, %ymm1 vpaddq %ymm3, %ymm1, %ymm1 vpermq $-128, %ymm1, %ymm1 vperm2i128 $32, %ymm0, %ymm2, %ymm3 vperm2i128 $49, %ymm0, %ymm2, %ymm0 vpaddq %ymm0, %ymm3, %ymm0 vpunpcklqdq %ymm1, %ymm0, %ymm2 vpunpckhqdq %ymm1, %ymm0, %ymm0 vpaddq %ymm0, %ymm2, %ymm0 vextracti128 $1, %ymm0, %xmm1 vpextrq $0, %xmm0, %rax vpextrq $0, %xmm1, %r8 vpextrq $1, %xmm1, %rcx movq %r8, %r9 shlq $52, %r9 shrq $12, %r8 movq %rcx, %rbx shrq $24, %rbx shlq $40, %rcx addq %rax, %r9 adcq %rcx, %r8 adcq $0, %rbx movq %rbx, %rax movq %rbx, %rcx andq $3, %rbx shrq $2, %rax andq $-4, %rcx addq %rcx, %rax addq %rax, %r9 adcq $0, %r8 adcq $0, %rbx jmp Ljade_onetimeauth_poly1305_amd64_avx2$4 Ljade_onetimeauth_poly1305_amd64_avx2$5: addq (%rsi), %r9 adcq 8(%rsi), %r8 adcq $1, %rbx movq %rbp, %r11 imulq %rbx, %r11 imulq %r13, %rbx movq %r13, %rax mulq %r9 movq %rax, %rcx movq %rdx, %r10 movq %r13, %rax mulq %r8 addq %rax, %r10 adcq %rdx, %rbx movq %rbp, %rax mulq %r8 movq %rdx, %r8 addq %r11, %r8 movq %rax, %r11 movq %r12, %rax mulq %r9 addq %r11, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %r9 movq %rbx, %rax shrq $2, %rax andq %rbx, %r9 addq %rax, %r9 andq $3, %rbx addq %rcx, %r9 adcq %r10, %r8 adcq $0, %rbx addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx2$4: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2$5 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx2$3 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %r9 adcq %rax, %r8 adcq $0, %rbx movq %rbp, %rsi imulq %rbx, %rsi imulq %r13, %rbx movq %r13, %rax mulq %r9 movq %rax, %rcx movq %rdx, %r10 movq %r13, %rax mulq %r8 addq %rax, %r10 adcq %rdx, %rbx movq %rbp, %rax mulq %r8 movq %rdx, %r8 addq %rsi, %r8 movq %rax, %rsi movq %r12, %rax mulq %r9 addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %r9 movq %rbx, %rax shrq $2, %rax andq %rbx, %r9 addq %rax, %r9 andq $3, %rbx addq %rcx, %r9 adcq %r10, %r8 adcq $0, %rbx Ljade_onetimeauth_poly1305_amd64_avx2$3: movq %r9, %rax movq %r8, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %rbx shrq $2, %rbx negq %rbx xorq %r9, %rax xorq %r8, %rcx andq %rbx, %rax andq %rbx, %rcx xorq %r9, %rax xorq %r8, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx Ljade_onetimeauth_poly1305_amd64_avx2$2: movq %rax, (%rdi) movq %rcx, 8(%rdi) xorq %rax, %rax movq 640(%rsp), %rbx movq 648(%rsp), %rbp movq 656(%rsp), %r12 movq 664(%rsp), %r13 movq 672(%rsp), %r14 movq 680(%rsp), %r15 movq 688(%rsp), %rsp ret .data .p2align 5 _glob_data: glob_data: .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte -1 .byte -1 .byte -1 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0
usenix-security-verdict/verdict
36,058
deps/libcrux/sys/libjade/jazz/poly1305_avx.s
.att_syntax .text .p2align 5 .globl _jade_onetimeauth_poly1305_amd64_avx_verify .globl jade_onetimeauth_poly1305_amd64_avx_verify .globl _jade_onetimeauth_poly1305_amd64_avx .globl jade_onetimeauth_poly1305_amd64_avx _jade_onetimeauth_poly1305_amd64_avx_verify: jade_onetimeauth_poly1305_amd64_avx_verify: movq %rsp, %rax leaq -600(%rsp), %rsp andq $-16, %rsp movq %rax, 592(%rsp) movq %rbx, 544(%rsp) movq %rbp, 552(%rsp) movq %r12, 560(%rsp) movq %r13, 568(%rsp) movq %r14, 576(%rsp) movq %r15, 584(%rsp) movq %rdx, %r14 movq %rcx, %r15 cmpq $1024, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$1 movq $0, %r8 movq $0, %r12 movq $0, %r13 movq (%r15), %rbp movq 8(%r15), %rbx movq $1152921487695413247, %rax andq %rax, %rbp movq $1152921487695413244, %rax andq %rax, %rbx movq %rbx, %r9 shrq $2, %r9 addq %rbx, %r9 addq $16, %r15 jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$9 Ljade_onetimeauth_poly1305_amd64_avx_verify$10: addq (%rsi), %r8 adcq 8(%rsi), %r12 adcq $1, %r13 movq %r9, %r10 imulq %r13, %r10 imulq %rbp, %r13 movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r11 movq %rbp, %rax mulq %r12 addq %rax, %r11 adcq %rdx, %r13 movq %r9, %rax mulq %r12 movq %rdx, %r12 addq %r10, %r12 movq %rax, %r10 movq %rbx, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r11 adcq %rdx, %r13 movq $-4, %r8 movq %r13, %rax shrq $2, %rax andq %r13, %r8 addq %rax, %r8 andq $3, %r13 addq %rcx, %r8 adcq %r11, %r12 adcq $0, %r13 addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx_verify$9: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$10 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx_verify$8 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %r8 adcq %rax, %r12 adcq $0, %r13 movq %r9, %rsi imulq %r13, %rsi imulq %rbp, %r13 movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r12 addq %rax, %r10 adcq %rdx, %r13 movq %r9, %rax mulq %r12 movq %rdx, %r12 addq %rsi, %r12 movq %rax, %rsi movq %rbx, %rax mulq %r8 addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %r13 movq $-4, %r8 movq %r13, %rax shrq $2, %rax andq %r13, %r8 addq %rax, %r8 andq $3, %r13 addq %rcx, %r8 adcq %r10, %r12 adcq $0, %r13 Ljade_onetimeauth_poly1305_amd64_avx_verify$8: movq %r8, %rax movq %r12, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r13 shrq $2, %r13 negq %r13 xorq %r8, %rax xorq %r12, %rcx andq %r13, %rax andq %r13, %rcx xorq %r8, %rax xorq %r12, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$2 Ljade_onetimeauth_poly1305_amd64_avx_verify$1: movq (%r15), %rbp movq 8(%r15), %r13 movq $1152921487695413247, %rax andq %rax, %rbp movq $1152921487695413244, %rax andq %rax, %r13 movq %r13, %r12 shrq $2, %r12 addq %r13, %r12 addq $16, %r15 movq %rbp, %r8 movq %r13, %r11 movq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 232(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 248(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 264(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 280(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 296(%rsp) movq %r12, %r10 imulq %rbx, %r10 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %r12, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r13, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 224(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 240(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 256(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 272(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 288(%rsp) vpbroadcastq glob_data + 16(%rip), %xmm0 vpmuludq 240(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 32(%rsp) vpmuludq 256(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 48(%rsp) vpmuludq 272(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 64(%rsp) vpmuludq 288(%rsp), %xmm0, %xmm0 vmovdqu %xmm0, 80(%rsp) vpbroadcastq 224(%rsp), %xmm0 vmovdqu %xmm0, 304(%rsp) vpbroadcastq 240(%rsp), %xmm0 vmovdqu %xmm0, 320(%rsp) vpbroadcastq 256(%rsp), %xmm0 vmovdqu %xmm0, 336(%rsp) vpbroadcastq 272(%rsp), %xmm0 vmovdqu %xmm0, 352(%rsp) vpbroadcastq 288(%rsp), %xmm0 vmovdqu %xmm0, 368(%rsp) vpbroadcastq 32(%rsp), %xmm0 vmovdqu %xmm0, 96(%rsp) vpbroadcastq 48(%rsp), %xmm0 vmovdqu %xmm0, 112(%rsp) vpbroadcastq 64(%rsp), %xmm0 vmovdqu %xmm0, 128(%rsp) vpbroadcastq 80(%rsp), %xmm0 vmovdqu %xmm0, 144(%rsp) movq %r12, %r10 imulq %rbx, %r10 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %r12, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r13, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r12, %r9 imulq %rbx, %r9 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r11 addq %rax, %r10 adcq %rdx, %rbx movq %r12, %rax mulq %r11 movq %rdx, %r11 addq %r9, %r11 movq %rax, %r9 movq %r13, %rax mulq %r8 addq %r9, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %rax movq %rbx, %rdx shrq $2, %rdx andq %rbx, %rax addq %rdx, %rax andq $3, %rbx addq %rcx, %rax adcq %r10, %r11 adcq $0, %rbx movq %rax, %rcx andq $67108863, %rcx movq %rcx, 384(%rsp) movq %rax, %rcx shrq $26, %rcx andq $67108863, %rcx movq %rcx, 400(%rsp) shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 416(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 432(%rsp) shrdq $40, %rbx, %r11 movq %r11, 448(%rsp) movq 384(%rsp), %rax movq %rax, 392(%rsp) movq 400(%rsp), %rax movq %rax, 408(%rsp) movq 416(%rsp), %rax movq %rax, 424(%rsp) movq 432(%rsp), %rax movq %rax, 440(%rsp) movq 448(%rsp), %rax movq %rax, 456(%rsp) vpbroadcastq glob_data + 16(%rip), %xmm0 vpmuludq 400(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 160(%rsp) vpmuludq 416(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 176(%rsp) vpmuludq 432(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 192(%rsp) vpmuludq 448(%rsp), %xmm0, %xmm0 vmovdqu %xmm0, 208(%rsp) vpxor %xmm3, %xmm3, %xmm3 vpxor %xmm2, %xmm2, %xmm2 vpxor %xmm1, %xmm1, %xmm1 vpxor %xmm4, %xmm4, %xmm4 vpxor %xmm5, %xmm5, %xmm5 vpbroadcastq glob_data + 8(%rip), %xmm0 vmovdqu %xmm0, (%rsp) vpbroadcastq glob_data + 0(%rip), %xmm0 vmovdqu %xmm0, 16(%rsp) jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$6 Ljade_onetimeauth_poly1305_amd64_avx_verify$7: vmovdqu 384(%rsp), %xmm0 vmovdqu 400(%rsp), %xmm12 vmovdqu 208(%rsp), %xmm14 vpmuludq %xmm0, %xmm3, %xmm7 vpmuludq %xmm12, %xmm3, %xmm8 vpmuludq %xmm0, %xmm2, %xmm13 vpmuludq %xmm12, %xmm2, %xmm6 vpmuludq %xmm0, %xmm1, %xmm9 vpmuludq %xmm12, %xmm1, %xmm10 vpmuludq %xmm0, %xmm4, %xmm11 vpaddq %xmm8, %xmm13, %xmm8 vpmuludq %xmm12, %xmm4, %xmm12 vpaddq %xmm6, %xmm9, %xmm9 vpmuludq %xmm0, %xmm5, %xmm0 vpaddq %xmm10, %xmm11, %xmm10 vpaddq %xmm12, %xmm0, %xmm6 vpmuludq %xmm14, %xmm2, %xmm15 vmovdqu (%rsi), %xmm0 vpmuludq %xmm14, %xmm1, %xmm13 vmovdqu 416(%rsp), %xmm12 vpmuludq %xmm14, %xmm4, %xmm11 vpmuludq %xmm14, %xmm5, %xmm14 vpaddq %xmm15, %xmm7, %xmm7 vmovdqu 16(%rsi), %xmm15 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm11, %xmm9, %xmm13 vpaddq %xmm14, %xmm10, %xmm9 vpmuludq %xmm12, %xmm3, %xmm14 vpunpcklqdq %xmm15, %xmm0, %xmm10 vpmuludq %xmm12, %xmm2, %xmm11 vpunpckhqdq %xmm15, %xmm0, %xmm0 vpmuludq %xmm12, %xmm1, %xmm12 vpaddq %xmm14, %xmm13, %xmm13 vmovdqu 192(%rsp), %xmm14 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm6, %xmm6 vpmuludq %xmm14, %xmm1, %xmm11 vpmuludq %xmm14, %xmm4, %xmm12 vmovdqu %xmm10, %xmm1 vpmuludq %xmm14, %xmm5, %xmm14 vpsrlq $26, %xmm1, %xmm1 vpand (%rsp), %xmm1, %xmm1 vmovdqu 432(%rsp), %xmm15 vpaddq %xmm11, %xmm7, %xmm7 vpaddq %xmm12, %xmm8, %xmm8 vpaddq %xmm13, %xmm14, %xmm12 vpmuludq %xmm15, %xmm3, %xmm11 vmovdqu %xmm0, %xmm13 vmovdqu %xmm12, 496(%rsp) vpmuludq %xmm15, %xmm2, %xmm12 vpsrlq $40, %xmm13, %xmm2 vpor 16(%rsp), %xmm2, %xmm2 vmovdqu 176(%rsp), %xmm13 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm6, %xmm6 vpmuludq %xmm13, %xmm4, %xmm11 vmovdqu %xmm10, %xmm4 vmovdqu %xmm9, 512(%rsp) vpmuludq %xmm13, %xmm5, %xmm9 vpsrlq $52, %xmm4, %xmm4 vpaddq %xmm11, %xmm7, %xmm7 vpaddq %xmm8, %xmm9, %xmm8 vpmuludq 160(%rsp), %xmm5, %xmm5 vpsllq $12, %xmm0, %xmm9 vmovdqu %xmm8, 480(%rsp) vpmuludq 448(%rsp), %xmm3, %xmm3 vpor %xmm9, %xmm4, %xmm4 vmovdqu (%rsp), %xmm8 vpaddq %xmm5, %xmm7, %xmm5 vpaddq %xmm3, %xmm6, %xmm3 vmovdqu %xmm5, 464(%rsp) vmovdqu %xmm3, 528(%rsp) vpand %xmm8, %xmm10, %xmm3 vpand %xmm8, %xmm4, %xmm4 vpsrlq $14, %xmm0, %xmm0 vpand %xmm8, %xmm0, %xmm0 vmovdqu 304(%rsp), %xmm5 vmovdqu 320(%rsp), %xmm9 vmovdqu 144(%rsp), %xmm12 vpmuludq %xmm5, %xmm3, %xmm7 vpmuludq %xmm9, %xmm3, %xmm8 vpmuludq %xmm5, %xmm1, %xmm14 vpmuludq %xmm9, %xmm1, %xmm11 vpmuludq %xmm5, %xmm4, %xmm13 vpmuludq %xmm9, %xmm4, %xmm6 vpaddq 464(%rsp), %xmm7, %xmm7 vpmuludq %xmm5, %xmm0, %xmm10 vpaddq 480(%rsp), %xmm14, %xmm14 vpaddq %xmm8, %xmm14, %xmm8 vpmuludq %xmm9, %xmm0, %xmm14 vpaddq 496(%rsp), %xmm13, %xmm9 vpaddq %xmm11, %xmm9, %xmm9 vpmuludq %xmm5, %xmm2, %xmm5 vpaddq 512(%rsp), %xmm10, %xmm10 vpaddq %xmm6, %xmm10, %xmm10 vpaddq 528(%rsp), %xmm5, %xmm5 vpaddq %xmm14, %xmm5, %xmm5 vpmuludq %xmm12, %xmm1, %xmm15 vmovdqu 32(%rsi), %xmm14 vpmuludq %xmm12, %xmm4, %xmm13 vmovdqu 336(%rsp), %xmm6 vpmuludq %xmm12, %xmm0, %xmm11 vpmuludq %xmm12, %xmm2, %xmm12 vpaddq %xmm15, %xmm7, %xmm7 vmovdqu 48(%rsi), %xmm15 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm10, %xmm10 vpmuludq %xmm6, %xmm3, %xmm11 vpunpcklqdq %xmm15, %xmm14, %xmm12 vpmuludq %xmm6, %xmm1, %xmm13 vpunpckhqdq %xmm15, %xmm14, %xmm14 vpmuludq %xmm6, %xmm4, %xmm6 vpaddq %xmm11, %xmm9, %xmm9 vmovdqu 128(%rsp), %xmm11 vpaddq %xmm13, %xmm10, %xmm10 vpaddq %xmm6, %xmm5, %xmm5 vpmuludq %xmm11, %xmm4, %xmm4 vpmuludq %xmm11, %xmm0, %xmm6 vmovdqu %xmm12, %xmm13 vpmuludq %xmm11, %xmm2, %xmm11 vpsrlq $26, %xmm13, %xmm13 vpand (%rsp), %xmm13, %xmm13 vmovdqu 352(%rsp), %xmm15 vpaddq %xmm4, %xmm7, %xmm4 vpaddq %xmm6, %xmm8, %xmm6 vpaddq %xmm9, %xmm11, %xmm7 vpmuludq %xmm15, %xmm3, %xmm8 vmovdqu %xmm14, %xmm9 vpmuludq %xmm15, %xmm1, %xmm11 vpsrlq $40, %xmm9, %xmm1 vpor 16(%rsp), %xmm1, %xmm1 vmovdqu 112(%rsp), %xmm9 vpaddq %xmm8, %xmm10, %xmm8 vpaddq %xmm11, %xmm5, %xmm5 vpmuludq %xmm9, %xmm0, %xmm0 vmovdqu %xmm12, %xmm10 vpmuludq %xmm9, %xmm2, %xmm11 vpsrlq $52, %xmm10, %xmm9 vpaddq %xmm0, %xmm4, %xmm10 vpaddq %xmm6, %xmm11, %xmm0 vpmuludq 96(%rsp), %xmm2, %xmm6 vpsllq $12, %xmm14, %xmm4 vpmuludq 368(%rsp), %xmm3, %xmm2 vpor %xmm4, %xmm9, %xmm3 vmovdqu (%rsp), %xmm4 vpaddq %xmm6, %xmm10, %xmm6 vpaddq %xmm2, %xmm5, %xmm2 vpand %xmm4, %xmm12, %xmm5 vpaddq %xmm6, %xmm5, %xmm5 vpand %xmm4, %xmm3, %xmm3 vpaddq %xmm7, %xmm3, %xmm3 vpsrlq $14, %xmm14, %xmm6 vpand %xmm4, %xmm6, %xmm6 vpaddq %xmm8, %xmm6, %xmm6 addq $64, %rsi vpaddq %xmm0, %xmm13, %xmm7 vpaddq %xmm2, %xmm1, %xmm1 vpsrlq $26, %xmm5, %xmm8 vpsrlq $26, %xmm6, %xmm9 vpand %xmm4, %xmm5, %xmm0 vpand %xmm4, %xmm6, %xmm2 vpaddq %xmm8, %xmm7, %xmm5 vpaddq %xmm9, %xmm1, %xmm1 vpsrlq $26, %xmm5, %xmm6 vpsrlq $26, %xmm1, %xmm7 vpsllq $2, %xmm7, %xmm8 vpaddq %xmm8, %xmm7, %xmm7 vpand %xmm4, %xmm5, %xmm8 vpand %xmm4, %xmm1, %xmm5 vpaddq %xmm6, %xmm3, %xmm1 vpaddq %xmm7, %xmm0, %xmm0 vpsrlq $26, %xmm1, %xmm6 vpsrlq $26, %xmm0, %xmm7 vpand %xmm4, %xmm1, %xmm1 vpand %xmm4, %xmm0, %xmm3 vpaddq %xmm6, %xmm2, %xmm0 vpaddq %xmm7, %xmm8, %xmm2 vpsrlq $26, %xmm0, %xmm6 vpand %xmm4, %xmm0, %xmm4 vpaddq %xmm6, %xmm5, %xmm5 addq $-64, %r14 Ljade_onetimeauth_poly1305_amd64_avx_verify$6: cmpq $64, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$7 vmovdqu 224(%rsp), %xmm6 vmovdqu 240(%rsp), %xmm11 vmovdqu 80(%rsp), %xmm14 vpmuludq %xmm6, %xmm3, %xmm0 vpmuludq %xmm6, %xmm2, %xmm7 vpmuludq %xmm6, %xmm1, %xmm8 vpmuludq %xmm6, %xmm4, %xmm9 vpmuludq %xmm6, %xmm5, %xmm10 vpmuludq %xmm11, %xmm3, %xmm15 vpmuludq %xmm11, %xmm2, %xmm12 vpmuludq %xmm11, %xmm1, %xmm13 vpmuludq %xmm11, %xmm4, %xmm11 vmovdqu 256(%rsp), %xmm6 vpaddq %xmm15, %xmm7, %xmm7 vpaddq %xmm12, %xmm8, %xmm8 vpaddq %xmm13, %xmm9, %xmm9 vpaddq %xmm11, %xmm10, %xmm10 vpmuludq %xmm14, %xmm2, %xmm11 vpmuludq %xmm14, %xmm1, %xmm12 vpmuludq %xmm14, %xmm4, %xmm13 vpmuludq %xmm14, %xmm5, %xmm14 vmovdqu 64(%rsp), %xmm15 vpaddq %xmm11, %xmm0, %xmm0 vpaddq %xmm12, %xmm7, %xmm7 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm14, %xmm9, %xmm9 vpmuludq %xmm6, %xmm3, %xmm13 vpmuludq %xmm6, %xmm2, %xmm11 vpmuludq %xmm6, %xmm1, %xmm12 vmovdqu 272(%rsp), %xmm6 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm10, %xmm10 vpmuludq %xmm15, %xmm1, %xmm11 vpmuludq %xmm15, %xmm4, %xmm12 vpmuludq %xmm15, %xmm5, %xmm13 vmovdqu 48(%rsp), %xmm1 vpaddq %xmm11, %xmm0, %xmm11 vpaddq %xmm12, %xmm7, %xmm7 vpaddq %xmm8, %xmm13, %xmm0 vpmuludq %xmm6, %xmm3, %xmm8 vpmuludq %xmm6, %xmm2, %xmm6 vpaddq %xmm8, %xmm9, %xmm2 vpaddq %xmm6, %xmm10, %xmm6 vpmuludq %xmm1, %xmm4, %xmm4 vpmuludq %xmm1, %xmm5, %xmm1 vpaddq %xmm4, %xmm11, %xmm4 vpaddq %xmm7, %xmm1, %xmm1 vpmuludq 32(%rsp), %xmm5, %xmm5 vpmuludq 288(%rsp), %xmm3, %xmm3 vpaddq %xmm5, %xmm4, %xmm4 vmovdqu %xmm2, %xmm5 vpaddq %xmm3, %xmm6, %xmm6 vmovdqu (%rsp), %xmm2 vpsrlq $26, %xmm4, %xmm7 vpsrlq $26, %xmm5, %xmm8 vpand %xmm2, %xmm4, %xmm3 vpand %xmm2, %xmm5, %xmm4 vpaddq %xmm7, %xmm1, %xmm1 vpaddq %xmm8, %xmm6, %xmm5 vpsrlq $26, %xmm1, %xmm6 vpsrlq $26, %xmm5, %xmm7 vpsllq $2, %xmm7, %xmm8 vpaddq %xmm8, %xmm7, %xmm7 vpand %xmm2, %xmm1, %xmm8 vpand %xmm2, %xmm5, %xmm1 vpaddq %xmm6, %xmm0, %xmm0 vpaddq %xmm7, %xmm3, %xmm3 vpsrlq $26, %xmm0, %xmm5 vpsrlq $26, %xmm3, %xmm6 vpand %xmm2, %xmm0, %xmm0 vpand %xmm2, %xmm3, %xmm3 vpaddq %xmm5, %xmm4, %xmm4 vpaddq %xmm6, %xmm8, %xmm5 vpsrlq $26, %xmm4, %xmm6 vpand %xmm2, %xmm4, %xmm2 vpaddq %xmm6, %xmm1, %xmm1 vpsllq $26, %xmm5, %xmm4 vpaddq %xmm3, %xmm4, %xmm3 vpsllq $26, %xmm2, %xmm2 vpaddq %xmm0, %xmm2, %xmm0 vpsrldq $8, %xmm1, %xmm2 vpaddq %xmm1, %xmm2, %xmm1 vpunpcklqdq %xmm0, %xmm3, %xmm2 vpunpckhqdq %xmm0, %xmm3, %xmm0 vpaddq %xmm0, %xmm2, %xmm0 vpextrq $0, %xmm0, %rax vpextrq $1, %xmm0, %r8 vpextrq $0, %xmm1, %rcx movq %r8, %r9 shlq $52, %r9 shrq $12, %r8 movq %rcx, %rbx shrq $24, %rbx shlq $40, %rcx addq %rax, %r9 adcq %rcx, %r8 adcq $0, %rbx movq %rbx, %rax movq %rbx, %rcx andq $3, %rbx shrq $2, %rax andq $-4, %rcx addq %rcx, %rax addq %rax, %r9 adcq $0, %r8 adcq $0, %rbx jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$4 Ljade_onetimeauth_poly1305_amd64_avx_verify$5: addq (%rsi), %r9 adcq 8(%rsi), %r8 adcq $1, %rbx movq %r12, %rcx imulq %rbx, %rcx imulq %rbp, %rbx movq %rbp, %rax mulq %r9 movq %rax, %r11 movq %rdx, %r10 movq %rbp, %rax mulq %r8 addq %rax, %r10 adcq %rdx, %rbx movq %r12, %rax mulq %r8 movq %rdx, %r8 addq %rcx, %r8 movq %rax, %rcx movq %r13, %rax mulq %r9 addq %rcx, %r11 adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %r9 movq %rbx, %rax shrq $2, %rax andq %rbx, %r9 addq %rax, %r9 andq $3, %rbx addq %r11, %r9 adcq %r10, %r8 adcq $0, %rbx addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx_verify$4: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$5 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx_verify$3 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %r9 adcq %rax, %r8 adcq $0, %rbx movq %r12, %rsi imulq %rbx, %rsi imulq %rbp, %rbx movq %rbp, %rax mulq %r9 movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r8 addq %rax, %r10 adcq %rdx, %rbx movq %r12, %rax mulq %r8 movq %rdx, %r8 addq %rsi, %r8 movq %rax, %rsi movq %r13, %rax mulq %r9 addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %r9 movq %rbx, %rax shrq $2, %rax andq %rbx, %r9 addq %rax, %r9 andq $3, %rbx addq %rcx, %r9 adcq %r10, %r8 adcq $0, %rbx Ljade_onetimeauth_poly1305_amd64_avx_verify$3: movq %r9, %rax movq %r8, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %rbx shrq $2, %rbx negq %rbx xorq %r9, %rax xorq %r8, %rcx andq %rbx, %rax andq %rbx, %rcx xorq %r9, %rax xorq %r8, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx Ljade_onetimeauth_poly1305_amd64_avx_verify$2: movq %rax, %rdx xorq (%rdi), %rdx xorq 8(%rdi), %rcx orq %rcx, %rdx xorq %rax, %rax subq $1, %rdx adcq $0, %rax addq $-1, %rax movq 544(%rsp), %rbx movq 552(%rsp), %rbp movq 560(%rsp), %r12 movq 568(%rsp), %r13 movq 576(%rsp), %r14 movq 584(%rsp), %r15 movq 592(%rsp), %rsp ret _jade_onetimeauth_poly1305_amd64_avx: jade_onetimeauth_poly1305_amd64_avx: movq %rsp, %rax leaq -600(%rsp), %rsp andq $-16, %rsp movq %rax, 592(%rsp) movq %rbx, 544(%rsp) movq %rbp, 552(%rsp) movq %r12, 560(%rsp) movq %r13, 568(%rsp) movq %r14, 576(%rsp) movq %r15, 584(%rsp) movq %rdx, %r14 movq %rcx, %r15 cmpq $1024, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx$1 movq $0, %rbx movq $0, %r9 movq $0, %rbp movq (%r15), %r13 movq 8(%r15), %r12 movq $1152921487695413247, %rax andq %rax, %r13 movq $1152921487695413244, %rax andq %rax, %r12 movq %r12, %r8 shrq $2, %r8 addq %r12, %r8 addq $16, %r15 jmp Ljade_onetimeauth_poly1305_amd64_avx$9 Ljade_onetimeauth_poly1305_amd64_avx$10: addq (%rsi), %rbx adcq 8(%rsi), %r9 adcq $1, %rbp movq %r8, %r11 imulq %rbp, %r11 imulq %r13, %rbp movq %r13, %rax mulq %rbx movq %rax, %rcx movq %rdx, %r10 movq %r13, %rax mulq %r9 addq %rax, %r10 adcq %rdx, %rbp movq %r8, %rax mulq %r9 movq %rdx, %r9 addq %r11, %r9 movq %rax, %r11 movq %r12, %rax mulq %rbx addq %r11, %rcx adcq %rax, %r10 adcq %rdx, %rbp movq $-4, %rbx movq %rbp, %rax shrq $2, %rax andq %rbp, %rbx addq %rax, %rbx andq $3, %rbp addq %rcx, %rbx adcq %r10, %r9 adcq $0, %rbp addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx$9: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx$10 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx$8 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %rbx adcq %rax, %r9 adcq $0, %rbp movq %r8, %rsi imulq %rbp, %rsi imulq %r13, %rbp movq %r13, %rax mulq %rbx movq %rax, %rcx movq %rdx, %r10 movq %r13, %rax mulq %r9 addq %rax, %r10 adcq %rdx, %rbp movq %r8, %rax mulq %r9 movq %rdx, %r9 addq %rsi, %r9 movq %rax, %rsi movq %r12, %rax mulq %rbx addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %rbp movq $-4, %rbx movq %rbp, %rax shrq $2, %rax andq %rbp, %rbx addq %rax, %rbx andq $3, %rbp addq %rcx, %rbx adcq %r10, %r9 adcq $0, %rbp Ljade_onetimeauth_poly1305_amd64_avx$8: movq %rbx, %rax movq %r9, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %rbp shrq $2, %rbp negq %rbp xorq %rbx, %rax xorq %r9, %rcx andq %rbp, %rax andq %rbp, %rcx xorq %rbx, %rax xorq %r9, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx jmp Ljade_onetimeauth_poly1305_amd64_avx$2 Ljade_onetimeauth_poly1305_amd64_avx$1: movq (%r15), %rbp movq 8(%r15), %r12 movq $1152921487695413247, %rax andq %rax, %rbp movq $1152921487695413244, %rax andq %rax, %r12 movq %r12, %r13 shrq $2, %r13 addq %r12, %r13 addq $16, %r15 movq %rbp, %r8 movq %r12, %r11 movq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 232(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 248(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 264(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 280(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 296(%rsp) movq %r13, %r10 imulq %rbx, %r10 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %r13, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r12, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 224(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 240(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 256(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 272(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 288(%rsp) vpbroadcastq glob_data + 16(%rip), %xmm0 vpmuludq 240(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 32(%rsp) vpmuludq 256(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 48(%rsp) vpmuludq 272(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 64(%rsp) vpmuludq 288(%rsp), %xmm0, %xmm0 vmovdqu %xmm0, 80(%rsp) vpbroadcastq 224(%rsp), %xmm0 vmovdqu %xmm0, 304(%rsp) vpbroadcastq 240(%rsp), %xmm0 vmovdqu %xmm0, 320(%rsp) vpbroadcastq 256(%rsp), %xmm0 vmovdqu %xmm0, 336(%rsp) vpbroadcastq 272(%rsp), %xmm0 vmovdqu %xmm0, 352(%rsp) vpbroadcastq 288(%rsp), %xmm0 vmovdqu %xmm0, 368(%rsp) vpbroadcastq 32(%rsp), %xmm0 vmovdqu %xmm0, 96(%rsp) vpbroadcastq 48(%rsp), %xmm0 vmovdqu %xmm0, 112(%rsp) vpbroadcastq 64(%rsp), %xmm0 vmovdqu %xmm0, 128(%rsp) vpbroadcastq 80(%rsp), %xmm0 vmovdqu %xmm0, 144(%rsp) movq %r13, %r10 imulq %rbx, %r10 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %r13, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r12, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r13, %r9 imulq %rbx, %r9 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r11 addq %rax, %r10 adcq %rdx, %rbx movq %r13, %rax mulq %r11 movq %rdx, %r11 addq %r9, %r11 movq %rax, %r9 movq %r12, %rax mulq %r8 addq %r9, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %rax movq %rbx, %rdx shrq $2, %rdx andq %rbx, %rax addq %rdx, %rax andq $3, %rbx addq %rcx, %rax adcq %r10, %r11 adcq $0, %rbx movq %rax, %rcx andq $67108863, %rcx movq %rcx, 384(%rsp) movq %rax, %rcx shrq $26, %rcx andq $67108863, %rcx movq %rcx, 400(%rsp) shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 416(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 432(%rsp) shrdq $40, %rbx, %r11 movq %r11, 448(%rsp) movq 384(%rsp), %rax movq %rax, 392(%rsp) movq 400(%rsp), %rax movq %rax, 408(%rsp) movq 416(%rsp), %rax movq %rax, 424(%rsp) movq 432(%rsp), %rax movq %rax, 440(%rsp) movq 448(%rsp), %rax movq %rax, 456(%rsp) vpbroadcastq glob_data + 16(%rip), %xmm0 vpmuludq 400(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 160(%rsp) vpmuludq 416(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 176(%rsp) vpmuludq 432(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 192(%rsp) vpmuludq 448(%rsp), %xmm0, %xmm0 vmovdqu %xmm0, 208(%rsp) vpxor %xmm3, %xmm3, %xmm3 vpxor %xmm2, %xmm2, %xmm2 vpxor %xmm1, %xmm1, %xmm1 vpxor %xmm4, %xmm4, %xmm4 vpxor %xmm5, %xmm5, %xmm5 vpbroadcastq glob_data + 8(%rip), %xmm0 vmovdqu %xmm0, (%rsp) vpbroadcastq glob_data + 0(%rip), %xmm0 vmovdqu %xmm0, 16(%rsp) jmp Ljade_onetimeauth_poly1305_amd64_avx$6 Ljade_onetimeauth_poly1305_amd64_avx$7: vmovdqu 384(%rsp), %xmm0 vmovdqu 400(%rsp), %xmm12 vmovdqu 208(%rsp), %xmm14 vpmuludq %xmm0, %xmm3, %xmm7 vpmuludq %xmm12, %xmm3, %xmm8 vpmuludq %xmm0, %xmm2, %xmm13 vpmuludq %xmm12, %xmm2, %xmm6 vpmuludq %xmm0, %xmm1, %xmm9 vpmuludq %xmm12, %xmm1, %xmm10 vpmuludq %xmm0, %xmm4, %xmm11 vpaddq %xmm8, %xmm13, %xmm8 vpmuludq %xmm12, %xmm4, %xmm12 vpaddq %xmm6, %xmm9, %xmm9 vpmuludq %xmm0, %xmm5, %xmm0 vpaddq %xmm10, %xmm11, %xmm10 vpaddq %xmm12, %xmm0, %xmm6 vpmuludq %xmm14, %xmm2, %xmm15 vmovdqu (%rsi), %xmm0 vpmuludq %xmm14, %xmm1, %xmm13 vmovdqu 416(%rsp), %xmm12 vpmuludq %xmm14, %xmm4, %xmm11 vpmuludq %xmm14, %xmm5, %xmm14 vpaddq %xmm15, %xmm7, %xmm7 vmovdqu 16(%rsi), %xmm15 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm11, %xmm9, %xmm13 vpaddq %xmm14, %xmm10, %xmm9 vpmuludq %xmm12, %xmm3, %xmm14 vpunpcklqdq %xmm15, %xmm0, %xmm10 vpmuludq %xmm12, %xmm2, %xmm11 vpunpckhqdq %xmm15, %xmm0, %xmm0 vpmuludq %xmm12, %xmm1, %xmm12 vpaddq %xmm14, %xmm13, %xmm13 vmovdqu 192(%rsp), %xmm14 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm6, %xmm6 vpmuludq %xmm14, %xmm1, %xmm11 vpmuludq %xmm14, %xmm4, %xmm12 vmovdqu %xmm10, %xmm1 vpmuludq %xmm14, %xmm5, %xmm14 vpsrlq $26, %xmm1, %xmm1 vpand (%rsp), %xmm1, %xmm1 vmovdqu 432(%rsp), %xmm15 vpaddq %xmm11, %xmm7, %xmm7 vpaddq %xmm12, %xmm8, %xmm8 vpaddq %xmm13, %xmm14, %xmm12 vpmuludq %xmm15, %xmm3, %xmm11 vmovdqu %xmm0, %xmm13 vmovdqu %xmm12, 496(%rsp) vpmuludq %xmm15, %xmm2, %xmm12 vpsrlq $40, %xmm13, %xmm2 vpor 16(%rsp), %xmm2, %xmm2 vmovdqu 176(%rsp), %xmm13 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm6, %xmm6 vpmuludq %xmm13, %xmm4, %xmm11 vmovdqu %xmm10, %xmm4 vmovdqu %xmm9, 512(%rsp) vpmuludq %xmm13, %xmm5, %xmm9 vpsrlq $52, %xmm4, %xmm4 vpaddq %xmm11, %xmm7, %xmm7 vpaddq %xmm8, %xmm9, %xmm8 vpmuludq 160(%rsp), %xmm5, %xmm5 vpsllq $12, %xmm0, %xmm9 vmovdqu %xmm8, 480(%rsp) vpmuludq 448(%rsp), %xmm3, %xmm3 vpor %xmm9, %xmm4, %xmm4 vmovdqu (%rsp), %xmm8 vpaddq %xmm5, %xmm7, %xmm5 vpaddq %xmm3, %xmm6, %xmm3 vmovdqu %xmm5, 464(%rsp) vmovdqu %xmm3, 528(%rsp) vpand %xmm8, %xmm10, %xmm3 vpand %xmm8, %xmm4, %xmm4 vpsrlq $14, %xmm0, %xmm0 vpand %xmm8, %xmm0, %xmm0 vmovdqu 304(%rsp), %xmm5 vmovdqu 320(%rsp), %xmm9 vmovdqu 144(%rsp), %xmm12 vpmuludq %xmm5, %xmm3, %xmm7 vpmuludq %xmm9, %xmm3, %xmm8 vpmuludq %xmm5, %xmm1, %xmm14 vpmuludq %xmm9, %xmm1, %xmm11 vpmuludq %xmm5, %xmm4, %xmm13 vpmuludq %xmm9, %xmm4, %xmm6 vpaddq 464(%rsp), %xmm7, %xmm7 vpmuludq %xmm5, %xmm0, %xmm10 vpaddq 480(%rsp), %xmm14, %xmm14 vpaddq %xmm8, %xmm14, %xmm8 vpmuludq %xmm9, %xmm0, %xmm14 vpaddq 496(%rsp), %xmm13, %xmm9 vpaddq %xmm11, %xmm9, %xmm9 vpmuludq %xmm5, %xmm2, %xmm5 vpaddq 512(%rsp), %xmm10, %xmm10 vpaddq %xmm6, %xmm10, %xmm10 vpaddq 528(%rsp), %xmm5, %xmm5 vpaddq %xmm14, %xmm5, %xmm5 vpmuludq %xmm12, %xmm1, %xmm15 vmovdqu 32(%rsi), %xmm14 vpmuludq %xmm12, %xmm4, %xmm13 vmovdqu 336(%rsp), %xmm6 vpmuludq %xmm12, %xmm0, %xmm11 vpmuludq %xmm12, %xmm2, %xmm12 vpaddq %xmm15, %xmm7, %xmm7 vmovdqu 48(%rsi), %xmm15 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm10, %xmm10 vpmuludq %xmm6, %xmm3, %xmm11 vpunpcklqdq %xmm15, %xmm14, %xmm12 vpmuludq %xmm6, %xmm1, %xmm13 vpunpckhqdq %xmm15, %xmm14, %xmm14 vpmuludq %xmm6, %xmm4, %xmm6 vpaddq %xmm11, %xmm9, %xmm9 vmovdqu 128(%rsp), %xmm11 vpaddq %xmm13, %xmm10, %xmm10 vpaddq %xmm6, %xmm5, %xmm5 vpmuludq %xmm11, %xmm4, %xmm4 vpmuludq %xmm11, %xmm0, %xmm6 vmovdqu %xmm12, %xmm13 vpmuludq %xmm11, %xmm2, %xmm11 vpsrlq $26, %xmm13, %xmm13 vpand (%rsp), %xmm13, %xmm13 vmovdqu 352(%rsp), %xmm15 vpaddq %xmm4, %xmm7, %xmm4 vpaddq %xmm6, %xmm8, %xmm6 vpaddq %xmm9, %xmm11, %xmm7 vpmuludq %xmm15, %xmm3, %xmm8 vmovdqu %xmm14, %xmm9 vpmuludq %xmm15, %xmm1, %xmm11 vpsrlq $40, %xmm9, %xmm1 vpor 16(%rsp), %xmm1, %xmm1 vmovdqu 112(%rsp), %xmm9 vpaddq %xmm8, %xmm10, %xmm8 vpaddq %xmm11, %xmm5, %xmm5 vpmuludq %xmm9, %xmm0, %xmm0 vmovdqu %xmm12, %xmm10 vpmuludq %xmm9, %xmm2, %xmm11 vpsrlq $52, %xmm10, %xmm9 vpaddq %xmm0, %xmm4, %xmm10 vpaddq %xmm6, %xmm11, %xmm0 vpmuludq 96(%rsp), %xmm2, %xmm6 vpsllq $12, %xmm14, %xmm4 vpmuludq 368(%rsp), %xmm3, %xmm2 vpor %xmm4, %xmm9, %xmm3 vmovdqu (%rsp), %xmm4 vpaddq %xmm6, %xmm10, %xmm6 vpaddq %xmm2, %xmm5, %xmm2 vpand %xmm4, %xmm12, %xmm5 vpaddq %xmm6, %xmm5, %xmm5 vpand %xmm4, %xmm3, %xmm3 vpaddq %xmm7, %xmm3, %xmm3 vpsrlq $14, %xmm14, %xmm6 vpand %xmm4, %xmm6, %xmm6 vpaddq %xmm8, %xmm6, %xmm6 addq $64, %rsi vpaddq %xmm0, %xmm13, %xmm7 vpaddq %xmm2, %xmm1, %xmm1 vpsrlq $26, %xmm5, %xmm8 vpsrlq $26, %xmm6, %xmm9 vpand %xmm4, %xmm5, %xmm0 vpand %xmm4, %xmm6, %xmm2 vpaddq %xmm8, %xmm7, %xmm5 vpaddq %xmm9, %xmm1, %xmm1 vpsrlq $26, %xmm5, %xmm6 vpsrlq $26, %xmm1, %xmm7 vpsllq $2, %xmm7, %xmm8 vpaddq %xmm8, %xmm7, %xmm7 vpand %xmm4, %xmm5, %xmm8 vpand %xmm4, %xmm1, %xmm5 vpaddq %xmm6, %xmm3, %xmm1 vpaddq %xmm7, %xmm0, %xmm0 vpsrlq $26, %xmm1, %xmm6 vpsrlq $26, %xmm0, %xmm7 vpand %xmm4, %xmm1, %xmm1 vpand %xmm4, %xmm0, %xmm3 vpaddq %xmm6, %xmm2, %xmm0 vpaddq %xmm7, %xmm8, %xmm2 vpsrlq $26, %xmm0, %xmm6 vpand %xmm4, %xmm0, %xmm4 vpaddq %xmm6, %xmm5, %xmm5 addq $-64, %r14 Ljade_onetimeauth_poly1305_amd64_avx$6: cmpq $64, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx$7 vmovdqu 224(%rsp), %xmm6 vmovdqu 240(%rsp), %xmm11 vmovdqu 80(%rsp), %xmm14 vpmuludq %xmm6, %xmm3, %xmm0 vpmuludq %xmm6, %xmm2, %xmm7 vpmuludq %xmm6, %xmm1, %xmm8 vpmuludq %xmm6, %xmm4, %xmm9 vpmuludq %xmm6, %xmm5, %xmm10 vpmuludq %xmm11, %xmm3, %xmm15 vpmuludq %xmm11, %xmm2, %xmm12 vpmuludq %xmm11, %xmm1, %xmm13 vpmuludq %xmm11, %xmm4, %xmm11 vmovdqu 256(%rsp), %xmm6 vpaddq %xmm15, %xmm7, %xmm7 vpaddq %xmm12, %xmm8, %xmm8 vpaddq %xmm13, %xmm9, %xmm9 vpaddq %xmm11, %xmm10, %xmm10 vpmuludq %xmm14, %xmm2, %xmm11 vpmuludq %xmm14, %xmm1, %xmm12 vpmuludq %xmm14, %xmm4, %xmm13 vpmuludq %xmm14, %xmm5, %xmm14 vmovdqu 64(%rsp), %xmm15 vpaddq %xmm11, %xmm0, %xmm0 vpaddq %xmm12, %xmm7, %xmm7 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm14, %xmm9, %xmm9 vpmuludq %xmm6, %xmm3, %xmm13 vpmuludq %xmm6, %xmm2, %xmm11 vpmuludq %xmm6, %xmm1, %xmm12 vmovdqu 272(%rsp), %xmm6 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm10, %xmm10 vpmuludq %xmm15, %xmm1, %xmm11 vpmuludq %xmm15, %xmm4, %xmm12 vpmuludq %xmm15, %xmm5, %xmm13 vmovdqu 48(%rsp), %xmm1 vpaddq %xmm11, %xmm0, %xmm11 vpaddq %xmm12, %xmm7, %xmm7 vpaddq %xmm8, %xmm13, %xmm0 vpmuludq %xmm6, %xmm3, %xmm8 vpmuludq %xmm6, %xmm2, %xmm6 vpaddq %xmm8, %xmm9, %xmm2 vpaddq %xmm6, %xmm10, %xmm6 vpmuludq %xmm1, %xmm4, %xmm4 vpmuludq %xmm1, %xmm5, %xmm1 vpaddq %xmm4, %xmm11, %xmm4 vpaddq %xmm7, %xmm1, %xmm1 vpmuludq 32(%rsp), %xmm5, %xmm5 vpmuludq 288(%rsp), %xmm3, %xmm3 vpaddq %xmm5, %xmm4, %xmm4 vmovdqu %xmm2, %xmm5 vpaddq %xmm3, %xmm6, %xmm6 vmovdqu (%rsp), %xmm2 vpsrlq $26, %xmm4, %xmm7 vpsrlq $26, %xmm5, %xmm8 vpand %xmm2, %xmm4, %xmm3 vpand %xmm2, %xmm5, %xmm4 vpaddq %xmm7, %xmm1, %xmm1 vpaddq %xmm8, %xmm6, %xmm5 vpsrlq $26, %xmm1, %xmm6 vpsrlq $26, %xmm5, %xmm7 vpsllq $2, %xmm7, %xmm8 vpaddq %xmm8, %xmm7, %xmm7 vpand %xmm2, %xmm1, %xmm8 vpand %xmm2, %xmm5, %xmm1 vpaddq %xmm6, %xmm0, %xmm0 vpaddq %xmm7, %xmm3, %xmm3 vpsrlq $26, %xmm0, %xmm5 vpsrlq $26, %xmm3, %xmm6 vpand %xmm2, %xmm0, %xmm0 vpand %xmm2, %xmm3, %xmm3 vpaddq %xmm5, %xmm4, %xmm4 vpaddq %xmm6, %xmm8, %xmm5 vpsrlq $26, %xmm4, %xmm6 vpand %xmm2, %xmm4, %xmm2 vpaddq %xmm6, %xmm1, %xmm1 vpsllq $26, %xmm5, %xmm4 vpaddq %xmm3, %xmm4, %xmm3 vpsllq $26, %xmm2, %xmm2 vpaddq %xmm0, %xmm2, %xmm0 vpsrldq $8, %xmm1, %xmm2 vpaddq %xmm1, %xmm2, %xmm1 vpunpcklqdq %xmm0, %xmm3, %xmm2 vpunpckhqdq %xmm0, %xmm3, %xmm0 vpaddq %xmm0, %xmm2, %xmm0 vpextrq $0, %xmm0, %rax vpextrq $1, %xmm0, %rbx vpextrq $0, %xmm1, %rcx movq %rbx, %r11 shlq $52, %r11 shrq $12, %rbx movq %rcx, %r8 shrq $24, %r8 shlq $40, %rcx addq %rax, %r11 adcq %rcx, %rbx adcq $0, %r8 movq %r8, %rax movq %r8, %rcx andq $3, %r8 shrq $2, %rax andq $-4, %rcx addq %rcx, %rax addq %rax, %r11 adcq $0, %rbx adcq $0, %r8 jmp Ljade_onetimeauth_poly1305_amd64_avx$4 Ljade_onetimeauth_poly1305_amd64_avx$5: addq (%rsi), %r11 adcq 8(%rsi), %rbx adcq $1, %r8 movq %r13, %r9 imulq %r8, %r9 imulq %rbp, %r8 movq %rbp, %rax mulq %r11 movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %rbx addq %rax, %r10 adcq %rdx, %r8 movq %r13, %rax mulq %rbx movq %rdx, %rbx addq %r9, %rbx movq %rax, %r9 movq %r12, %rax mulq %r11 addq %r9, %rcx adcq %rax, %r10 adcq %rdx, %r8 movq $-4, %r11 movq %r8, %rax shrq $2, %rax andq %r8, %r11 addq %rax, %r11 andq $3, %r8 addq %rcx, %r11 adcq %r10, %rbx adcq $0, %r8 addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx$4: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx$5 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx$3 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r9 addq $-1, %r9 movq %rax, %r10 andq %r9, %r10 xorq %r10, %rcx xorq %r10, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r9 andq %rax, %r9 orq %rdx, %r9 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r9, %r11 adcq %rax, %rbx adcq $0, %r8 movq %r13, %rsi imulq %r8, %rsi imulq %rbp, %r8 movq %rbp, %rax mulq %r11 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %rbx addq %rax, %r9 adcq %rdx, %r8 movq %r13, %rax mulq %rbx movq %rdx, %rbx addq %rsi, %rbx movq %rax, %rsi movq %r12, %rax mulq %r11 addq %rsi, %rcx adcq %rax, %r9 adcq %rdx, %r8 movq $-4, %r11 movq %r8, %rax shrq $2, %rax andq %r8, %r11 addq %rax, %r11 andq $3, %r8 addq %rcx, %r11 adcq %r9, %rbx adcq $0, %r8 Ljade_onetimeauth_poly1305_amd64_avx$3: movq %r11, %rax movq %rbx, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r8 shrq $2, %r8 negq %r8 xorq %r11, %rax xorq %rbx, %rcx andq %r8, %rax andq %r8, %rcx xorq %r11, %rax xorq %rbx, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx Ljade_onetimeauth_poly1305_amd64_avx$2: movq %rax, (%rdi) movq %rcx, 8(%rdi) xorq %rax, %rax movq 544(%rsp), %rbx movq 552(%rsp), %rbp movq 560(%rsp), %r12 movq 568(%rsp), %r13 movq 576(%rsp), %r14 movq 584(%rsp), %r15 movq 592(%rsp), %rsp ret .data .p2align 5 _glob_data: glob_data: .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte -1 .byte -1 .byte -1 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0
usenix-security-verdict/verdict
34,208
deps/libcrux/sys/libjade/jazz/sha3_512_avx2.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_512_amd64_avx2 .globl jade_hash_sha3_512_amd64_avx2 _jade_hash_sha3_512_amd64_avx2: jade_hash_sha3_512_amd64_avx2: movq %rsp, %rax leaq -40(%rsp), %rsp andq $-32, %rsp movq %rax, 32(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq $64, %r9 movb $6, %al movq $72, %rcx leaq -224(%rsp), %rsp leaq Ljade_hash_sha3_512_amd64_avx2$1(%rip), %r10 jmp L_keccak1600_avx2$1 Ljade_hash_sha3_512_amd64_avx2$1: leaq 224(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %rsp ret L_keccak1600_avx2$1: vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm5, %ymm5, %ymm5 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm2, %ymm2, %ymm2 leaq glob_data + 1152(%rip), %r8 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) jmp L_keccak1600_avx2$16 L_keccak1600_avx2$17: movq %rcx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$19 L_keccak1600_avx2$20: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$19: cmpq %r11, %rbx jb L_keccak1600_avx2$20 movq (%rsp), %r11 movq %r11, 8(%rsp) movq %r11, 16(%rsp) movq %r11, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 addq %rcx, %rsi subq %rcx, %rdx leaq glob_data + 384(%rip), %r11 movq $0, %rbx leaq glob_data + 192(%rip), %rbp leaq glob_data + 0(%rip), %r12 movq $24, %r13 L_keccak1600_avx2$18: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rbp), %ymm4, %ymm7 vpsrlvq (%r12), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rbp), %ymm0, %ymm7 vpsrlvq 64(%r12), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rbp), %ymm5, %ymm7 vpsrlvq 96(%r12), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rbp), %ymm1, %ymm5 vpsrlvq 128(%r12), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rbp), %ymm2, %ymm0 vpsrlvq 160(%r12), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rbp), %ymm0, %ymm1 vpsrlvq 32(%r12), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%r11,%rbx), %ymm6, %ymm6 addq $32, %rbx decq %r13 jne L_keccak1600_avx2$18 L_keccak1600_avx2$16: cmpq %rcx, %rdx jnb L_keccak1600_avx2$17 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) movq %rdx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$14 L_keccak1600_avx2$15: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$14: cmpq %r11, %rbx jb L_keccak1600_avx2$15 movq (%r8,%rbx,8), %r11 shlq $3, %r11 shlq $3, %rbx jmp L_keccak1600_avx2$12 L_keccak1600_avx2$13: movb (%rsi,%rbx), %bpl movb %bpl, (%rsp,%r11) incq %rbx incq %r11 L_keccak1600_avx2$12: cmpq %rdx, %rbx jb L_keccak1600_avx2$13 movb %al, (%rsp,%r11) movq %rcx, %rax addq $-1, %rax shrq $3, %rax movq (%r8,%rax,8), %rax shlq $3, %rax movq %rcx, %rdx addq $-1, %rdx andq $7, %rdx addq %rdx, %rax xorb $-128, (%rsp,%rax) movq (%rsp), %rax movq %rax, 8(%rsp) movq %rax, 16(%rsp) movq %rax, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 leaq glob_data + 1152(%rip), %rax jmp L_keccak1600_avx2$7 L_keccak1600_avx2$8: leaq glob_data + 384(%rip), %rdx movq $0, %rsi leaq glob_data + 192(%rip), %r8 leaq glob_data + 0(%rip), %r11 movq $24, %rbx L_keccak1600_avx2$11: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r8), %ymm4, %ymm7 vpsrlvq (%r11), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%r8), %ymm0, %ymm7 vpsrlvq 64(%r11), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%r8), %ymm5, %ymm7 vpsrlvq 96(%r11), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%r8), %ymm1, %ymm5 vpsrlvq 128(%r11), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%r8), %ymm2, %ymm0 vpsrlvq 160(%r11), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%r8), %ymm0, %ymm1 vpsrlvq 32(%r11), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rdx,%rsi), %ymm6, %ymm6 addq $32, %rsi decq %rbx jne L_keccak1600_avx2$11 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_avx2$9 L_keccak1600_avx2$10: movq (%rax,%rsi,8), %r8 movq (%rsp,%r8,8), %r8 movq %r8, (%rdi,%rsi,8) incq %rsi L_keccak1600_avx2$9: cmpq %rdx, %rsi jb L_keccak1600_avx2$10 addq %rcx, %rdi subq %rcx, %r9 L_keccak1600_avx2$7: cmpq %rcx, %r9 jnbe L_keccak1600_avx2$8 leaq glob_data + 384(%rip), %rcx movq $0, %rdx leaq glob_data + 192(%rip), %rsi leaq glob_data + 0(%rip), %r8 movq $24, %r11 L_keccak1600_avx2$6: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm4, %ymm7 vpsrlvq (%r8), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rsi), %ymm0, %ymm7 vpsrlvq 64(%r8), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rsi), %ymm5, %ymm7 vpsrlvq 96(%r8), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rsi), %ymm1, %ymm5 vpsrlvq 128(%r8), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rsi), %ymm2, %ymm0 vpsrlvq 160(%r8), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rsi), %ymm0, %ymm1 vpsrlvq 32(%r8), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r11 jne L_keccak1600_avx2$6 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %r9, %rcx shrq $3, %rcx movq $0, %rdx jmp L_keccak1600_avx2$4 L_keccak1600_avx2$5: movq (%rax,%rdx,8), %rsi movq (%rsp,%rsi,8), %rsi movq %rsi, (%rdi,%rdx,8) incq %rdx L_keccak1600_avx2$4: cmpq %rcx, %rdx jb L_keccak1600_avx2$5 movq (%rax,%rdx,8), %rax shlq $3, %rdx shlq $3, %rax jmp L_keccak1600_avx2$2 L_keccak1600_avx2$3: movb (%rsp,%rax), %cl movb %cl, (%rdi,%rdx) incq %rdx incq %rax L_keccak1600_avx2$2: cmpq %r9, %rdx jb L_keccak1600_avx2$3 jmp *%r10 .data .p2align 5 _glob_data: glob_data: .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 46 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 63 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 37 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 58 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 54 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 49 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 50 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 41 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 45 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 55 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 24 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 13 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 16 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 22 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 11 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 12 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 26 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 17 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0
usenix-security-verdict/verdict
31,350
deps/libcrux/sys/libjade/jazz/sha3_256_ref.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_256_amd64_ref .globl jade_hash_sha3_256_amd64_ref _jade_hash_sha3_256_amd64_ref: jade_hash_sha3_256_amd64_ref: movq %rsp, %rax leaq -48(%rsp), %rsp andq $-8, %rsp movq %rax, 40(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq %r14, 32(%rsp) movq $32, %rcx movb $6, %r8b movq $136, %rax leaq -448(%rsp), %rsp call L_keccak1600_ref$1 Ljade_hash_sha3_256_amd64_ref$1: leaq 448(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %r14 movq 40(%rsp), %rsp ret L_keccak1600_ref$1: movq %rdi, 8(%rsp) movq %rcx, 16(%rsp) movb %r8b, 448(%rsp) xorq %rcx, %rcx movq %rcx, 48(%rsp) movq %rcx, 56(%rsp) movq %rcx, 64(%rsp) movq %rcx, 72(%rsp) movq %rcx, 80(%rsp) movq %rcx, 88(%rsp) movq %rcx, 96(%rsp) movq %rcx, 104(%rsp) movq %rcx, 112(%rsp) movq %rcx, 120(%rsp) movq %rcx, 128(%rsp) movq %rcx, 136(%rsp) movq %rcx, 144(%rsp) movq %rcx, 152(%rsp) movq %rcx, 160(%rsp) movq %rcx, 168(%rsp) movq %rcx, 176(%rsp) movq %rcx, 184(%rsp) movq %rcx, 192(%rsp) movq %rcx, 200(%rsp) movq %rcx, 208(%rsp) movq %rcx, 216(%rsp) movq %rcx, 224(%rsp) movq %rcx, 232(%rsp) movq %rcx, 240(%rsp) jmp L_keccak1600_ref$16 L_keccak1600_ref$17: movq %rax, %rcx shrq $3, %rcx movq $0, %rdi jmp L_keccak1600_ref$19 L_keccak1600_ref$20: movq (%rsi,%rdi,8), %r8 xorq %r8, 48(%rsp,%rdi,8) incq %rdi L_keccak1600_ref$19: cmpq %rcx, %rdi jb L_keccak1600_ref$20 addq %rax, %rsi subq %rax, %rdx movq %rsi, 24(%rsp) movq %rdx, 32(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$18: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$18 movq 24(%rsp), %rsi movq 32(%rsp), %rdx movq 40(%rsp), %rax L_keccak1600_ref$16: cmpq %rax, %rdx jnb L_keccak1600_ref$17 movb 448(%rsp), %cl movq %rdx, %rdi shrq $3, %rdi movq $0, %r8 jmp L_keccak1600_ref$14 L_keccak1600_ref$15: movq (%rsi,%r8,8), %r9 xorq %r9, 48(%rsp,%r8,8) incq %r8 L_keccak1600_ref$14: cmpq %rdi, %r8 jb L_keccak1600_ref$15 shlq $3, %r8 jmp L_keccak1600_ref$12 L_keccak1600_ref$13: movb (%rsi,%r8), %dil xorb %dil, 48(%rsp,%r8) incq %r8 L_keccak1600_ref$12: cmpq %rdx, %r8 jb L_keccak1600_ref$13 xorb %cl, 48(%rsp,%r8) movq %rax, %rcx addq $-1, %rcx xorb $-128, 48(%rsp,%rcx) movq 16(%rsp), %rdx jmp L_keccak1600_ref$7 L_keccak1600_ref$8: movq %rdx, 16(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$11: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$11 movq 8(%rsp), %rcx movq 16(%rsp), %rdx movq 40(%rsp), %rax movq %rax, %rsi shrq $3, %rsi movq $0, %rdi jmp L_keccak1600_ref$9 L_keccak1600_ref$10: movq 48(%rsp,%rdi,8), %r8 movq %r8, (%rcx,%rdi,8) incq %rdi L_keccak1600_ref$9: cmpq %rsi, %rdi jb L_keccak1600_ref$10 addq %rax, %rcx subq %rax, %rdx movq %rcx, 8(%rsp) L_keccak1600_ref$7: cmpq %rax, %rdx jnbe L_keccak1600_ref$8 movq %rdx, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$6: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$6 movq 8(%rsp), %rax movq 40(%rsp), %rcx movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_ref$4 L_keccak1600_ref$5: movq 48(%rsp,%rsi,8), %rdi movq %rdi, (%rax,%rsi,8) incq %rsi L_keccak1600_ref$4: cmpq %rdx, %rsi jb L_keccak1600_ref$5 shlq $3, %rsi jmp L_keccak1600_ref$2 L_keccak1600_ref$3: movb 48(%rsp,%rsi), %dl movb %dl, (%rax,%rsi) incq %rsi L_keccak1600_ref$2: cmpq %rcx, %rsi jb L_keccak1600_ref$3 ret .data .p2align 5 _glob_data: glob_data: .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128
usenix-security-verdict/verdict
18,425
deps/libcrux/sys/libjade/jazz/chacha20_ref.s
.att_syntax .text .p2align 5 .globl _jade_stream_chacha_chacha20_ietf_amd64_ref .globl jade_stream_chacha_chacha20_ietf_amd64_ref .globl _jade_stream_chacha_chacha20_ietf_amd64_ref_xor .globl jade_stream_chacha_chacha20_ietf_amd64_ref_xor _jade_stream_chacha_chacha20_ietf_amd64_ref: jade_stream_chacha_chacha20_ietf_amd64_ref: movq %rsp, %rax leaq -152(%rsp), %rsp andq $-8, %rsp movq %rax, 144(%rsp) movq %rbx, 96(%rsp) movq %rbp, 104(%rsp) movq %r12, 112(%rsp) movq %r13, 120(%rsp) movq %r14, 128(%rsp) movq %r15, 136(%rsp) movq %rdi, (%rsp) movq %rsi, 8(%rsp) movl $1634760805, 16(%rsp) movl $857760878, 20(%rsp) movl $2036477234, 24(%rsp) movl $1797285236, 28(%rsp) movl (%rcx), %eax movl %eax, 32(%rsp) movl 4(%rcx), %eax movl %eax, 36(%rsp) movl 8(%rcx), %eax movl %eax, 40(%rsp) movl 12(%rcx), %eax movl %eax, 44(%rsp) movl 16(%rcx), %eax movl %eax, 48(%rsp) movl 20(%rcx), %eax movl %eax, 52(%rsp) movl 24(%rcx), %eax movl %eax, 56(%rsp) movl 28(%rcx), %eax movl %eax, 60(%rsp) movl $0, 64(%rsp) movl (%rdx), %eax movl %eax, 68(%rsp) movl 4(%rdx), %eax movl %eax, 72(%rsp) movl 8(%rdx), %eax movl %eax, 76(%rsp) jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref$7 Ljade_stream_chacha_chacha20_ietf_amd64_ref$8: movl 76(%rsp), %eax movl %eax, 80(%rsp) movl 16(%rsp), %r14d movl 20(%rsp), %r13d movl 24(%rsp), %eax movl 28(%rsp), %r15d movl 32(%rsp), %ecx movl 36(%rsp), %edx movl 40(%rsp), %esi movl 44(%rsp), %edi movl 48(%rsp), %r8d movl 52(%rsp), %r9d movl 56(%rsp), %r10d movl 60(%rsp), %r11d movl 64(%rsp), %ebx movl 68(%rsp), %ebp movl 72(%rsp), %r12d movl %r12d, 84(%rsp) movl $10, %r12d Ljade_stream_chacha_chacha20_ietf_amd64_ref$9: movl %r12d, 88(%rsp) movl 84(%rsp), %r12d addl %ecx, %r14d addl %esi, %eax xorl %r14d, %ebx xorl %eax, %r12d roll $16, %ebx roll $16, %r12d addl %ebx, %r8d addl %r12d, %r10d xorl %r8d, %ecx xorl %r10d, %esi roll $12, %ecx roll $12, %esi addl %ecx, %r14d addl %esi, %eax xorl %r14d, %ebx xorl %eax, %r12d roll $8, %ebx roll $8, %r12d addl %ebx, %r8d addl %r12d, %r10d xorl %r8d, %ecx xorl %r10d, %esi roll $7, %ecx roll $7, %esi movl %r12d, 92(%rsp) movl 80(%rsp), %r12d addl %edx, %r13d addl %edi, %r15d xorl %r13d, %ebp xorl %r15d, %r12d roll $16, %ebp roll $16, %r12d addl %ebp, %r9d addl %r12d, %r11d xorl %r9d, %edx xorl %r11d, %edi roll $12, %edx roll $12, %edi addl %edx, %r13d addl %edi, %r15d xorl %r13d, %ebp xorl %r15d, %r12d roll $8, %ebp roll $8, %r12d addl %ebp, %r9d addl %r12d, %r11d xorl %r9d, %edx xorl %r11d, %edi roll $7, %edx roll $7, %edi addl %esi, %r13d addl %edx, %r14d xorl %r13d, %ebx xorl %r14d, %r12d roll $16, %ebx roll $16, %r12d addl %ebx, %r11d addl %r12d, %r10d xorl %r11d, %esi xorl %r10d, %edx roll $12, %esi roll $12, %edx addl %esi, %r13d addl %edx, %r14d xorl %r13d, %ebx xorl %r14d, %r12d roll $8, %ebx roll $8, %r12d addl %ebx, %r11d addl %r12d, %r10d xorl %r11d, %esi xorl %r10d, %edx roll $7, %esi roll $7, %edx movl %r12d, 80(%rsp) movl 92(%rsp), %r12d addl %edi, %eax addl %ecx, %r15d xorl %eax, %ebp xorl %r15d, %r12d roll $16, %ebp roll $16, %r12d addl %ebp, %r8d addl %r12d, %r9d xorl %r8d, %edi xorl %r9d, %ecx roll $12, %edi roll $12, %ecx addl %edi, %eax addl %ecx, %r15d xorl %eax, %ebp xorl %r15d, %r12d roll $8, %ebp roll $8, %r12d addl %ebp, %r8d addl %r12d, %r9d xorl %r8d, %edi xorl %r9d, %ecx roll $7, %edi roll $7, %ecx movl %r12d, 84(%rsp) movl 88(%rsp), %r12d decl %r12d cmpl $0, %r12d jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref$9 movl 84(%rsp), %r12d addl 20(%rsp), %r13d addl 16(%rsp), %r14d movl %r13d, %r13d shlq $32, %r13 movl %r14d, %r14d xorq %r14, %r13 addl 28(%rsp), %r15d addl 24(%rsp), %eax movl %r15d, %r14d shlq $32, %r14 movl %eax, %eax xorq %rax, %r14 movq (%rsp), %rax movq %r13, (%rax) addl 36(%rsp), %edx addl 32(%rsp), %ecx movl %edx, %edx shlq $32, %rdx movl %ecx, %ecx xorq %rcx, %rdx movq %r14, 8(%rax) addl 44(%rsp), %edi addl 40(%rsp), %esi movl %edi, %ecx shlq $32, %rcx movl %esi, %esi xorq %rsi, %rcx movq %rdx, 16(%rax) addl 52(%rsp), %r9d addl 48(%rsp), %r8d movl %r9d, %edx shlq $32, %rdx movl %r8d, %esi xorq %rsi, %rdx movq %rcx, 24(%rax) addl 60(%rsp), %r11d addl 56(%rsp), %r10d movl %r11d, %ecx shlq $32, %rcx movl %r10d, %esi xorq %rsi, %rcx movq %rdx, 32(%rax) addl 68(%rsp), %ebp addl 64(%rsp), %ebx movl %ebp, %edx shlq $32, %rdx movl %ebx, %esi xorq %rsi, %rdx movq %rcx, 40(%rax) movl 80(%rsp), %ecx addl 76(%rsp), %ecx addl 72(%rsp), %r12d movl %ecx, %ecx shlq $32, %rcx movl %r12d, %esi xorq %rsi, %rcx movq %rdx, 48(%rax) movq %rcx, 56(%rax) movq 8(%rsp), %rcx addq $64, %rax addq $-64, %rcx movq %rax, (%rsp) movq %rcx, 8(%rsp) movl 64(%rsp), %eax incl %eax movl %eax, 64(%rsp) Ljade_stream_chacha_chacha20_ietf_amd64_ref$7: movq 8(%rsp), %rax cmpq $64, %rax jnb Ljade_stream_chacha_chacha20_ietf_amd64_ref$8 cmpq $0, %rax jbe Ljade_stream_chacha_chacha20_ietf_amd64_ref$1 movl 76(%rsp), %eax movl %eax, 80(%rsp) movl 16(%rsp), %eax movl 20(%rsp), %ecx movl 24(%rsp), %edx movl 28(%rsp), %esi movl 32(%rsp), %edi movl 36(%rsp), %r8d movl 40(%rsp), %r9d movl 44(%rsp), %r10d movl 48(%rsp), %r11d movl 52(%rsp), %ebx movl 56(%rsp), %ebp movl 60(%rsp), %r12d movl 64(%rsp), %r13d movl 68(%rsp), %r14d movl 72(%rsp), %r15d movl %r15d, 84(%rsp) movl $10, %r15d Ljade_stream_chacha_chacha20_ietf_amd64_ref$6: movl %r15d, 88(%rsp) movl 84(%rsp), %r15d addl %edi, %eax addl %r9d, %edx xorl %eax, %r13d xorl %edx, %r15d roll $16, %r13d roll $16, %r15d addl %r13d, %r11d addl %r15d, %ebp xorl %r11d, %edi xorl %ebp, %r9d roll $12, %edi roll $12, %r9d addl %edi, %eax addl %r9d, %edx xorl %eax, %r13d xorl %edx, %r15d roll $8, %r13d roll $8, %r15d addl %r13d, %r11d addl %r15d, %ebp xorl %r11d, %edi xorl %ebp, %r9d roll $7, %edi roll $7, %r9d movl %r15d, 92(%rsp) movl 80(%rsp), %r15d addl %r8d, %ecx addl %r10d, %esi xorl %ecx, %r14d xorl %esi, %r15d roll $16, %r14d roll $16, %r15d addl %r14d, %ebx addl %r15d, %r12d xorl %ebx, %r8d xorl %r12d, %r10d roll $12, %r8d roll $12, %r10d addl %r8d, %ecx addl %r10d, %esi xorl %ecx, %r14d xorl %esi, %r15d roll $8, %r14d roll $8, %r15d addl %r14d, %ebx addl %r15d, %r12d xorl %ebx, %r8d xorl %r12d, %r10d roll $7, %r8d roll $7, %r10d addl %r9d, %ecx addl %r8d, %eax xorl %ecx, %r13d xorl %eax, %r15d roll $16, %r13d roll $16, %r15d addl %r13d, %r12d addl %r15d, %ebp xorl %r12d, %r9d xorl %ebp, %r8d roll $12, %r9d roll $12, %r8d addl %r9d, %ecx addl %r8d, %eax xorl %ecx, %r13d xorl %eax, %r15d roll $8, %r13d roll $8, %r15d addl %r13d, %r12d addl %r15d, %ebp xorl %r12d, %r9d xorl %ebp, %r8d roll $7, %r9d roll $7, %r8d movl %r15d, 80(%rsp) movl 92(%rsp), %r15d addl %r10d, %edx addl %edi, %esi xorl %edx, %r14d xorl %esi, %r15d roll $16, %r14d roll $16, %r15d addl %r14d, %r11d addl %r15d, %ebx xorl %r11d, %r10d xorl %ebx, %edi roll $12, %r10d roll $12, %edi addl %r10d, %edx addl %edi, %esi xorl %edx, %r14d xorl %esi, %r15d roll $8, %r14d roll $8, %r15d addl %r14d, %r11d addl %r15d, %ebx xorl %r11d, %r10d xorl %ebx, %edi roll $7, %r10d roll $7, %edi movl %r15d, 84(%rsp) movl 88(%rsp), %r15d decl %r15d cmpl $0, %r15d jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref$6 movl 84(%rsp), %r15d addl 16(%rsp), %eax addl 20(%rsp), %ecx addl 24(%rsp), %edx addl 28(%rsp), %esi addl 32(%rsp), %edi addl 36(%rsp), %r8d addl 40(%rsp), %r9d addl 44(%rsp), %r10d addl 48(%rsp), %r11d addl 52(%rsp), %ebx addl 56(%rsp), %ebp addl 60(%rsp), %r12d addl 64(%rsp), %r13d addl 68(%rsp), %r14d addl 72(%rsp), %r15d movl %r15d, 84(%rsp) movl 80(%rsp), %r15d addl 76(%rsp), %r15d movl %r15d, 80(%rsp) movl 84(%rsp), %r15d movl %eax, 16(%rsp) movl %ecx, 20(%rsp) movl %edx, 24(%rsp) movl %esi, 28(%rsp) movl %edi, 32(%rsp) movl %r8d, 36(%rsp) movl %r9d, 40(%rsp) movl %r10d, 44(%rsp) movl %r11d, 48(%rsp) movl %ebx, 52(%rsp) movl %ebp, 56(%rsp) movl %r12d, 60(%rsp) movl %r13d, 64(%rsp) movl %r14d, 68(%rsp) movl %r15d, 72(%rsp) movl 80(%rsp), %eax movl %eax, 76(%rsp) movq (%rsp), %rax movq 8(%rsp), %rcx movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref$4 Ljade_stream_chacha_chacha20_ietf_amd64_ref$5: movq 16(%rsp,%rsi,8), %rdi movq %rdi, (%rax,%rsi,8) incq %rsi Ljade_stream_chacha_chacha20_ietf_amd64_ref$4: cmpq %rdx, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_ref$5 shlq $3, %rsi jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref$2 Ljade_stream_chacha_chacha20_ietf_amd64_ref$3: movb 16(%rsp,%rsi), %dl movb %dl, (%rax,%rsi) incq %rsi Ljade_stream_chacha_chacha20_ietf_amd64_ref$2: cmpq %rcx, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_ref$3 Ljade_stream_chacha_chacha20_ietf_amd64_ref$1: xorq %rax, %rax movq 96(%rsp), %rbx movq 104(%rsp), %rbp movq 112(%rsp), %r12 movq 120(%rsp), %r13 movq 128(%rsp), %r14 movq 136(%rsp), %r15 movq 144(%rsp), %rsp ret _jade_stream_chacha_chacha20_ietf_amd64_ref_xor: jade_stream_chacha_chacha20_ietf_amd64_ref_xor: movq %rsp, %rax leaq -160(%rsp), %rsp andq $-8, %rsp movq %rax, 152(%rsp) movq %rbx, 104(%rsp) movq %rbp, 112(%rsp) movq %r12, 120(%rsp) movq %r13, 128(%rsp) movq %r14, 136(%rsp) movq %r15, 144(%rsp) movq %rdi, (%rsp) movq %rsi, 8(%rsp) movq %rdx, 16(%rsp) movl $1634760805, 24(%rsp) movl $857760878, 28(%rsp) movl $2036477234, 32(%rsp) movl $1797285236, 36(%rsp) movl (%r8), %eax movl %eax, 40(%rsp) movl 4(%r8), %eax movl %eax, 44(%rsp) movl 8(%r8), %eax movl %eax, 48(%rsp) movl 12(%r8), %eax movl %eax, 52(%rsp) movl 16(%r8), %eax movl %eax, 56(%rsp) movl 20(%r8), %eax movl %eax, 60(%rsp) movl 24(%r8), %eax movl %eax, 64(%rsp) movl 28(%r8), %eax movl %eax, 68(%rsp) movl $0, 72(%rsp) movl (%rcx), %eax movl %eax, 76(%rsp) movl 4(%rcx), %eax movl %eax, 80(%rsp) movl 8(%rcx), %eax movl %eax, 84(%rsp) jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$7 Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$8: movl 84(%rsp), %eax movl %eax, 88(%rsp) movl 24(%rsp), %r14d movl 28(%rsp), %r13d movl 32(%rsp), %eax movl 36(%rsp), %r15d movl 40(%rsp), %ecx movl 44(%rsp), %edx movl 48(%rsp), %esi movl 52(%rsp), %edi movl 56(%rsp), %r8d movl 60(%rsp), %r9d movl 64(%rsp), %r10d movl 68(%rsp), %r11d movl 72(%rsp), %ebx movl 76(%rsp), %ebp movl 80(%rsp), %r12d movl %r12d, 92(%rsp) movl $10, %r12d Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$9: movl %r12d, 96(%rsp) movl 92(%rsp), %r12d addl %ecx, %r14d addl %esi, %eax xorl %r14d, %ebx xorl %eax, %r12d roll $16, %ebx roll $16, %r12d addl %ebx, %r8d addl %r12d, %r10d xorl %r8d, %ecx xorl %r10d, %esi roll $12, %ecx roll $12, %esi addl %ecx, %r14d addl %esi, %eax xorl %r14d, %ebx xorl %eax, %r12d roll $8, %ebx roll $8, %r12d addl %ebx, %r8d addl %r12d, %r10d xorl %r8d, %ecx xorl %r10d, %esi roll $7, %ecx roll $7, %esi movl %r12d, 100(%rsp) movl 88(%rsp), %r12d addl %edx, %r13d addl %edi, %r15d xorl %r13d, %ebp xorl %r15d, %r12d roll $16, %ebp roll $16, %r12d addl %ebp, %r9d addl %r12d, %r11d xorl %r9d, %edx xorl %r11d, %edi roll $12, %edx roll $12, %edi addl %edx, %r13d addl %edi, %r15d xorl %r13d, %ebp xorl %r15d, %r12d roll $8, %ebp roll $8, %r12d addl %ebp, %r9d addl %r12d, %r11d xorl %r9d, %edx xorl %r11d, %edi roll $7, %edx roll $7, %edi addl %esi, %r13d addl %edx, %r14d xorl %r13d, %ebx xorl %r14d, %r12d roll $16, %ebx roll $16, %r12d addl %ebx, %r11d addl %r12d, %r10d xorl %r11d, %esi xorl %r10d, %edx roll $12, %esi roll $12, %edx addl %esi, %r13d addl %edx, %r14d xorl %r13d, %ebx xorl %r14d, %r12d roll $8, %ebx roll $8, %r12d addl %ebx, %r11d addl %r12d, %r10d xorl %r11d, %esi xorl %r10d, %edx roll $7, %esi roll $7, %edx movl %r12d, 88(%rsp) movl 100(%rsp), %r12d addl %edi, %eax addl %ecx, %r15d xorl %eax, %ebp xorl %r15d, %r12d roll $16, %ebp roll $16, %r12d addl %ebp, %r8d addl %r12d, %r9d xorl %r8d, %edi xorl %r9d, %ecx roll $12, %edi roll $12, %ecx addl %edi, %eax addl %ecx, %r15d xorl %eax, %ebp xorl %r15d, %r12d roll $8, %ebp roll $8, %r12d addl %ebp, %r8d addl %r12d, %r9d xorl %r8d, %edi xorl %r9d, %ecx roll $7, %edi roll $7, %ecx movl %r12d, 92(%rsp) movl 96(%rsp), %r12d decl %r12d cmpl $0, %r12d jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$9 movl 92(%rsp), %r12d addl 28(%rsp), %r13d addl 24(%rsp), %r14d movl %r13d, %r13d shlq $32, %r13 movl %r14d, %r14d xorq %r14, %r13 movq 8(%rsp), %r14 xorq (%r14), %r13 addl 36(%rsp), %r15d addl 32(%rsp), %eax movl %r15d, %r15d shlq $32, %r15 movl %eax, %eax xorq %rax, %r15 xorq 8(%r14), %r15 movq (%rsp), %rax movq %r13, (%rax) addl 44(%rsp), %edx addl 40(%rsp), %ecx movl %edx, %edx shlq $32, %rdx movl %ecx, %ecx xorq %rcx, %rdx xorq 16(%r14), %rdx movq %r15, 8(%rax) addl 52(%rsp), %edi addl 48(%rsp), %esi movl %edi, %ecx shlq $32, %rcx movl %esi, %esi xorq %rsi, %rcx xorq 24(%r14), %rcx movq %rdx, 16(%rax) addl 60(%rsp), %r9d addl 56(%rsp), %r8d movl %r9d, %edx shlq $32, %rdx movl %r8d, %esi xorq %rsi, %rdx xorq 32(%r14), %rdx movq %rcx, 24(%rax) addl 68(%rsp), %r11d addl 64(%rsp), %r10d movl %r11d, %ecx shlq $32, %rcx movl %r10d, %esi xorq %rsi, %rcx xorq 40(%r14), %rcx movq %rdx, 32(%rax) addl 76(%rsp), %ebp addl 72(%rsp), %ebx movl %ebp, %edx shlq $32, %rdx movl %ebx, %esi xorq %rsi, %rdx xorq 48(%r14), %rdx movq %rcx, 40(%rax) movl 88(%rsp), %ecx addl 84(%rsp), %ecx addl 80(%rsp), %r12d movl %ecx, %ecx shlq $32, %rcx movl %r12d, %esi xorq %rsi, %rcx xorq 56(%r14), %rcx movq %rdx, 48(%rax) movq %rcx, 56(%rax) movq 16(%rsp), %rcx addq $64, %rax addq $64, %r14 addq $-64, %rcx movq %rax, (%rsp) movq %r14, 8(%rsp) movq %rcx, 16(%rsp) movl 72(%rsp), %eax incl %eax movl %eax, 72(%rsp) Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$7: movq 16(%rsp), %rax cmpq $64, %rax jnb Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$8 cmpq $0, %rax jbe Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$1 movl 84(%rsp), %eax movl %eax, 88(%rsp) movl 24(%rsp), %eax movl 28(%rsp), %ecx movl 32(%rsp), %edx movl 36(%rsp), %esi movl 40(%rsp), %edi movl 44(%rsp), %r8d movl 48(%rsp), %r9d movl 52(%rsp), %r10d movl 56(%rsp), %r11d movl 60(%rsp), %ebx movl 64(%rsp), %ebp movl 68(%rsp), %r12d movl 72(%rsp), %r13d movl 76(%rsp), %r14d movl 80(%rsp), %r15d movl %r15d, 92(%rsp) movl $10, %r15d Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$6: movl %r15d, 96(%rsp) movl 92(%rsp), %r15d addl %edi, %eax addl %r9d, %edx xorl %eax, %r13d xorl %edx, %r15d roll $16, %r13d roll $16, %r15d addl %r13d, %r11d addl %r15d, %ebp xorl %r11d, %edi xorl %ebp, %r9d roll $12, %edi roll $12, %r9d addl %edi, %eax addl %r9d, %edx xorl %eax, %r13d xorl %edx, %r15d roll $8, %r13d roll $8, %r15d addl %r13d, %r11d addl %r15d, %ebp xorl %r11d, %edi xorl %ebp, %r9d roll $7, %edi roll $7, %r9d movl %r15d, 100(%rsp) movl 88(%rsp), %r15d addl %r8d, %ecx addl %r10d, %esi xorl %ecx, %r14d xorl %esi, %r15d roll $16, %r14d roll $16, %r15d addl %r14d, %ebx addl %r15d, %r12d xorl %ebx, %r8d xorl %r12d, %r10d roll $12, %r8d roll $12, %r10d addl %r8d, %ecx addl %r10d, %esi xorl %ecx, %r14d xorl %esi, %r15d roll $8, %r14d roll $8, %r15d addl %r14d, %ebx addl %r15d, %r12d xorl %ebx, %r8d xorl %r12d, %r10d roll $7, %r8d roll $7, %r10d addl %r9d, %ecx addl %r8d, %eax xorl %ecx, %r13d xorl %eax, %r15d roll $16, %r13d roll $16, %r15d addl %r13d, %r12d addl %r15d, %ebp xorl %r12d, %r9d xorl %ebp, %r8d roll $12, %r9d roll $12, %r8d addl %r9d, %ecx addl %r8d, %eax xorl %ecx, %r13d xorl %eax, %r15d roll $8, %r13d roll $8, %r15d addl %r13d, %r12d addl %r15d, %ebp xorl %r12d, %r9d xorl %ebp, %r8d roll $7, %r9d roll $7, %r8d movl %r15d, 88(%rsp) movl 100(%rsp), %r15d addl %r10d, %edx addl %edi, %esi xorl %edx, %r14d xorl %esi, %r15d roll $16, %r14d roll $16, %r15d addl %r14d, %r11d addl %r15d, %ebx xorl %r11d, %r10d xorl %ebx, %edi roll $12, %r10d roll $12, %edi addl %r10d, %edx addl %edi, %esi xorl %edx, %r14d xorl %esi, %r15d roll $8, %r14d roll $8, %r15d addl %r14d, %r11d addl %r15d, %ebx xorl %r11d, %r10d xorl %ebx, %edi roll $7, %r10d roll $7, %edi movl %r15d, 92(%rsp) movl 96(%rsp), %r15d decl %r15d cmpl $0, %r15d jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$6 movl 92(%rsp), %r15d addl 24(%rsp), %eax addl 28(%rsp), %ecx addl 32(%rsp), %edx addl 36(%rsp), %esi addl 40(%rsp), %edi addl 44(%rsp), %r8d addl 48(%rsp), %r9d addl 52(%rsp), %r10d addl 56(%rsp), %r11d addl 60(%rsp), %ebx addl 64(%rsp), %ebp addl 68(%rsp), %r12d addl 72(%rsp), %r13d addl 76(%rsp), %r14d addl 80(%rsp), %r15d movl %r15d, 92(%rsp) movl 88(%rsp), %r15d addl 84(%rsp), %r15d movl %r15d, 88(%rsp) movl 92(%rsp), %r15d movl %eax, 24(%rsp) movl %ecx, 28(%rsp) movl %edx, 32(%rsp) movl %esi, 36(%rsp) movl %edi, 40(%rsp) movl %r8d, 44(%rsp) movl %r9d, 48(%rsp) movl %r10d, 52(%rsp) movl %r11d, 56(%rsp) movl %ebx, 60(%rsp) movl %ebp, 64(%rsp) movl %r12d, 68(%rsp) movl %r13d, 72(%rsp) movl %r14d, 76(%rsp) movl %r15d, 80(%rsp) movl 88(%rsp), %eax movl %eax, 84(%rsp) movq (%rsp), %rax movq 8(%rsp), %rcx movq 16(%rsp), %rdx movq %rdx, %rsi shrq $3, %rsi movq $0, %rdi jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$4 Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$5: movq (%rcx,%rdi,8), %r8 xorq 24(%rsp,%rdi,8), %r8 movq %r8, (%rax,%rdi,8) incq %rdi Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$4: cmpq %rsi, %rdi jb Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$5 shlq $3, %rdi jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$2 Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$3: movb (%rcx,%rdi), %sil xorb 24(%rsp,%rdi), %sil movb %sil, (%rax,%rdi) incq %rdi Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$2: cmpq %rdx, %rdi jb Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$3 Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$1: xorq %rax, %rax movq 104(%rsp), %rbx movq 112(%rsp), %rbp movq 120(%rsp), %r12 movq 128(%rsp), %r13 movq 136(%rsp), %r14 movq 144(%rsp), %r15 movq 152(%rsp), %rsp ret
usenix-security-verdict/verdict
31,350
deps/libcrux/sys/libjade/jazz/sha3_224_ref.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_224_amd64_ref .globl jade_hash_sha3_224_amd64_ref _jade_hash_sha3_224_amd64_ref: jade_hash_sha3_224_amd64_ref: movq %rsp, %rax leaq -48(%rsp), %rsp andq $-8, %rsp movq %rax, 40(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq %r14, 32(%rsp) movq $28, %rcx movb $6, %r8b movq $144, %rax leaq -448(%rsp), %rsp call L_keccak1600_ref$1 Ljade_hash_sha3_224_amd64_ref$1: leaq 448(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %r14 movq 40(%rsp), %rsp ret L_keccak1600_ref$1: movq %rdi, 8(%rsp) movq %rcx, 16(%rsp) movb %r8b, 448(%rsp) xorq %rcx, %rcx movq %rcx, 48(%rsp) movq %rcx, 56(%rsp) movq %rcx, 64(%rsp) movq %rcx, 72(%rsp) movq %rcx, 80(%rsp) movq %rcx, 88(%rsp) movq %rcx, 96(%rsp) movq %rcx, 104(%rsp) movq %rcx, 112(%rsp) movq %rcx, 120(%rsp) movq %rcx, 128(%rsp) movq %rcx, 136(%rsp) movq %rcx, 144(%rsp) movq %rcx, 152(%rsp) movq %rcx, 160(%rsp) movq %rcx, 168(%rsp) movq %rcx, 176(%rsp) movq %rcx, 184(%rsp) movq %rcx, 192(%rsp) movq %rcx, 200(%rsp) movq %rcx, 208(%rsp) movq %rcx, 216(%rsp) movq %rcx, 224(%rsp) movq %rcx, 232(%rsp) movq %rcx, 240(%rsp) jmp L_keccak1600_ref$16 L_keccak1600_ref$17: movq %rax, %rcx shrq $3, %rcx movq $0, %rdi jmp L_keccak1600_ref$19 L_keccak1600_ref$20: movq (%rsi,%rdi,8), %r8 xorq %r8, 48(%rsp,%rdi,8) incq %rdi L_keccak1600_ref$19: cmpq %rcx, %rdi jb L_keccak1600_ref$20 addq %rax, %rsi subq %rax, %rdx movq %rsi, 24(%rsp) movq %rdx, 32(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$18: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$18 movq 24(%rsp), %rsi movq 32(%rsp), %rdx movq 40(%rsp), %rax L_keccak1600_ref$16: cmpq %rax, %rdx jnb L_keccak1600_ref$17 movb 448(%rsp), %cl movq %rdx, %rdi shrq $3, %rdi movq $0, %r8 jmp L_keccak1600_ref$14 L_keccak1600_ref$15: movq (%rsi,%r8,8), %r9 xorq %r9, 48(%rsp,%r8,8) incq %r8 L_keccak1600_ref$14: cmpq %rdi, %r8 jb L_keccak1600_ref$15 shlq $3, %r8 jmp L_keccak1600_ref$12 L_keccak1600_ref$13: movb (%rsi,%r8), %dil xorb %dil, 48(%rsp,%r8) incq %r8 L_keccak1600_ref$12: cmpq %rdx, %r8 jb L_keccak1600_ref$13 xorb %cl, 48(%rsp,%r8) movq %rax, %rcx addq $-1, %rcx xorb $-128, 48(%rsp,%rcx) movq 16(%rsp), %rdx jmp L_keccak1600_ref$7 L_keccak1600_ref$8: movq %rdx, 16(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$11: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$11 movq 8(%rsp), %rcx movq 16(%rsp), %rdx movq 40(%rsp), %rax movq %rax, %rsi shrq $3, %rsi movq $0, %rdi jmp L_keccak1600_ref$9 L_keccak1600_ref$10: movq 48(%rsp,%rdi,8), %r8 movq %r8, (%rcx,%rdi,8) incq %rdi L_keccak1600_ref$9: cmpq %rsi, %rdi jb L_keccak1600_ref$10 addq %rax, %rcx subq %rax, %rdx movq %rcx, 8(%rsp) L_keccak1600_ref$7: cmpq %rax, %rdx jnbe L_keccak1600_ref$8 movq %rdx, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$6: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$6 movq 8(%rsp), %rax movq 40(%rsp), %rcx movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_ref$4 L_keccak1600_ref$5: movq 48(%rsp,%rsi,8), %rdi movq %rdi, (%rax,%rsi,8) incq %rsi L_keccak1600_ref$4: cmpq %rdx, %rsi jb L_keccak1600_ref$5 shlq $3, %rsi jmp L_keccak1600_ref$2 L_keccak1600_ref$3: movb 48(%rsp,%rsi), %dl movb %dl, (%rax,%rsi) incq %rsi L_keccak1600_ref$2: cmpq %rcx, %rsi jb L_keccak1600_ref$3 ret .data .p2align 5 _glob_data: glob_data: .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128
usenix-security-verdict/verdict
678,286
deps/libcrux/sys/libjade/jazz/kyber_kyber768_avx2.s
.att_syntax .text .p2align 5 .globl _jade_kem_kyber_kyber768_amd64_avx2_dec .globl jade_kem_kyber_kyber768_amd64_avx2_dec .globl _jade_kem_kyber_kyber768_amd64_avx2_enc .globl jade_kem_kyber_kyber768_amd64_avx2_enc .globl _jade_kem_kyber_kyber768_amd64_avx2_enc_derand .globl jade_kem_kyber_kyber768_amd64_avx2_enc_derand .globl _jade_kem_kyber_kyber768_amd64_avx2_keypair .globl jade_kem_kyber_kyber768_amd64_avx2_keypair .globl _jade_kem_kyber_kyber768_amd64_avx2_keypair_derand .globl jade_kem_kyber_kyber768_amd64_avx2_keypair_derand _jade_kem_kyber_kyber768_amd64_avx2_dec: jade_kem_kyber_kyber768_amd64_avx2_dec: movq %rsp, %rax leaq -17200(%rsp), %rsp andq $-32, %rsp movq %rax, 17192(%rsp) movq %rbx, 17160(%rsp) movq %rbp, 17168(%rsp) movq %r12, 17176(%rsp) movq %r13, 17184(%rsp) movq %rdi, 17120(%rsp) movq %rsi, 17128(%rsp) leaq 32(%rsp), %rax vpbroadcastd glob_data + 6404(%rip), %ymm0 vmovdqu glob_data + 64(%rip), %ymm1 vpbroadcastq glob_data + 6192(%rip), %ymm2 vpbroadcastd glob_data + 6400(%rip), %ymm3 vmovdqu (%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6368(%rsp) vmovdqu 20(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6400(%rsp) vmovdqu 40(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6432(%rsp) vmovdqu 60(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6464(%rsp) vmovdqu 80(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6496(%rsp) vmovdqu 100(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6528(%rsp) vmovdqu 120(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6560(%rsp) vmovdqu 140(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6592(%rsp) vmovdqu 160(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6624(%rsp) vmovdqu 180(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6656(%rsp) vmovdqu 200(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6688(%rsp) vmovdqu 220(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6720(%rsp) vmovdqu 240(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6752(%rsp) vmovdqu 260(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6784(%rsp) vmovdqu 280(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6816(%rsp) vmovdqu 300(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6848(%rsp) vmovdqu 320(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6880(%rsp) vmovdqu 340(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6912(%rsp) vmovdqu 360(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6944(%rsp) vmovdqu 380(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6976(%rsp) vmovdqu 400(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7008(%rsp) vmovdqu 420(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7040(%rsp) vmovdqu 440(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7072(%rsp) vmovdqu 460(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7104(%rsp) vmovdqu 480(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7136(%rsp) vmovdqu 500(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7168(%rsp) vmovdqu 520(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7200(%rsp) vmovdqu 540(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7232(%rsp) vmovdqu 560(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7264(%rsp) vmovdqu 580(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7296(%rsp) vmovdqu 600(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7328(%rsp) vmovdqu 620(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7360(%rsp) vmovdqu 640(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7392(%rsp) vmovdqu 660(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7424(%rsp) vmovdqu 680(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7456(%rsp) vmovdqu 700(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7488(%rsp) vmovdqu 720(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7520(%rsp) vmovdqu 740(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7552(%rsp) vmovdqu 760(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7584(%rsp) vmovdqu 780(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7616(%rsp) vmovdqu 800(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7648(%rsp) vmovdqu 820(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7680(%rsp) vmovdqu 840(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7712(%rsp) vmovdqu 860(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7744(%rsp) vmovdqu 880(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7776(%rsp) vmovdqu 900(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7808(%rsp) vmovdqu 920(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7840(%rsp) vmovdqu 940(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm1 vpsllvd %ymm2, %ymm1, %ymm1 vpsrlw $1, %ymm1, %ymm1 vpand %ymm3, %ymm1, %ymm1 vpmulhrsw %ymm0, %ymm1, %ymm0 vmovdqu %ymm0, 7872(%rsp) addq $960, %rsi leaq 2432(%rsp), %rcx leaq -16(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$145(%rip), %r8 jmp L_poly_decompress$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$145: leaq 16(%rsp), %rsp movq %rdx, %rdi leaq 7904(%rsp), %r8 leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$144(%rip), %r10 jmp L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$144: addq $384, %rdi leaq 8416(%rsp), %r8 leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$143(%rip), %r10 jmp L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$143: addq $384, %rdi leaq 8928(%rsp), %r8 leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$142(%rip), %r10 jmp L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$142: leaq 6368(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$141(%rip), %rdi jmp L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$141: leaq 6880(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$140(%rip), %rdi jmp L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$140: leaq 7392(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$139(%rip), %rdi jmp L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$139: leaq 2944(%rsp), %rcx leaq 7904(%rsp), %rsi leaq 6368(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$138(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$138: leaq 3456(%rsp), %rcx leaq 8416(%rsp), %rsi leaq 6880(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$137(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$137: leaq 2944(%rsp), %rcx leaq 3456(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$136(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$136: leaq 3456(%rsp), %rcx leaq 8928(%rsp), %rsi leaq 7392(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$135(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$135: leaq 2944(%rsp), %rcx leaq 3456(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$134(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$134: leaq 2944(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$133(%rip), %rdi jmp L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$133: leaq 3456(%rsp), %rcx leaq 2432(%rsp), %rsi leaq 2944(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$132(%rip), %r8 jmp L_poly_sub$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$132: leaq 3456(%rsp), %rcx vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rcx) vmovdqu 32(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rcx) vmovdqu 64(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rcx) vmovdqu 96(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rcx) vmovdqu 128(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rcx) vmovdqu 160(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rcx) vmovdqu 192(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rcx) vmovdqu 224(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rcx) vmovdqu 256(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rcx) vmovdqu 288(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rcx) vmovdqu 320(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rcx) vmovdqu 352(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rcx) vmovdqu 384(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rcx) vmovdqu 416(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rcx) vmovdqu 448(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rcx) vmovdqu 480(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rcx) leaq 3456(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$131(%rip), %rdi jmp L_poly_tomsg_1$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$131: leaq 32(%rdx), %rax addq $2304, %rax movq (%rax), %rcx movq %rcx, 64(%rsp) movq 8(%rax), %rcx movq %rcx, 72(%rsp) movq 16(%rax), %rcx movq %rcx, 80(%rsp) movq 24(%rax), %rax movq %rax, 88(%rsp) movq %rdx, 17136(%rsp) leaq 96(%rsp), %rax leaq 32(%rsp), %rcx leaq -256(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$130(%rip), %rdx movq %rdx, 224(%rsp) jmp L_sha3_512_64$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$130: leaq 256(%rsp), %rsp movq 17136(%rsp), %rcx addq $1152, %rcx leaq 5280(%rsp), %rdx leaq 32(%rsp), %rax leaq 128(%rsp), %rsi movq %rdx, 17144(%rsp) movq %rcx, %rdi leaq 6368(%rsp), %r8 leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$129(%rip), %r10 jmp L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$129: addq $384, %rdi leaq 6880(%rsp), %r8 leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$128(%rip), %r10 jmp L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$128: addq $384, %rdi leaq 7392(%rsp), %r8 leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$127(%rip), %r10 jmp L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$127: movq $0, %rdx addq $1152, %rcx jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$125 Ljade_kem_kyber_kyber768_amd64_avx2_dec$126: movq (%rcx), %rdi movq %rdi, (%rsp,%rdx,8) addq $8, %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_avx2_dec$125: cmpq $4, %rdx jb Ljade_kem_kyber_kyber768_amd64_avx2_dec$126 leaq 3456(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$124(%rip), %r8 jmp L_poly_frommsg_1$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$124: movq %rsi, 17152(%rsp) vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 384(%rsp) vmovdqu %ymm0, 896(%rsp) vmovdqu %ymm0, 1408(%rsp) vmovdqu %ymm0, 1920(%rsp) vmovdqu %ymm0, (%rsp) movb $0, 416(%rsp) movb $0, 417(%rsp) movb $0, 928(%rsp) movb $1, 929(%rsp) movb $0, 1440(%rsp) movb $2, 1441(%rsp) movb $1, 1952(%rsp) movb $0, 1953(%rsp) leaq 4480(%rsp), %rax leaq 384(%rsp), %rcx leaq 896(%rsp), %rdx leaq 1408(%rsp), %rsi leaq 1920(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$123(%rip), %r8 movq %r8, (%rsp) jmp L_shake128_absorb4x_34$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$123: leaq 8(%rsp), %rsp leaq 4480(%rsp), %rax leaq 384(%rsp), %rdi leaq 896(%rsp), %r8 leaq 1408(%rsp), %r9 leaq 1920(%rsp), %r10 movq %rdi, %r11 movq %r8, %rbx movq %r9, %rbp movq %r10, %r12 leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$122(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$122: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 168(%rdi), %r11 leaq 168(%r8), %rbx leaq 168(%r9), %rbp leaq 168(%r10), %r12 leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$121(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$121: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 336(%rdi), %rdi leaq 336(%r8), %r8 leaq 336(%r9), %r9 leaq 336(%r10), %r10 leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$120(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$120: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%rdi) vmovhpd %xmm1, (%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%r9) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%rdi) vmovhpd %xmm1, 8(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%r9) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%rdi) vmovhpd %xmm1, 16(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%r9) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%rdi) vmovhpd %xmm1, 24(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%r9) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%rdi) vmovhpd %xmm1, 32(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%r9) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%rdi) vmovhpd %xmm1, 40(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%r9) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%rdi) vmovhpd %xmm1, 48(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%r9) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%rdi) vmovhpd %xmm1, 56(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%r9) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%rdi) vmovhpd %xmm1, 64(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%r9) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%rdi) vmovhpd %xmm1, 72(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%r9) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%rdi) vmovhpd %xmm1, 80(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%r9) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%rdi) vmovhpd %xmm1, 88(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%r9) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%rdi) vmovhpd %xmm1, 96(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%r9) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%rdi) vmovhpd %xmm1, 104(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%r9) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%rdi) vmovhpd %xmm1, 112(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%r9) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%rdi) vmovhpd %xmm1, 120(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%r9) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%rdi) vmovhpd %xmm1, 128(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%r9) vmovhpd %xmm0, 128(%r10) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%rdi) vmovhpd %xmm1, 136(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%r9) vmovhpd %xmm0, 136(%r10) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%rdi) vmovhpd %xmm1, 144(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%r9) vmovhpd %xmm0, 144(%r10) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%rdi) vmovhpd %xmm1, 152(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%r9) vmovhpd %xmm0, 152(%r10) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%rdi) vmovhpd %xmm1, 160(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%r9) vmovhpd %xmm0, 160(%r10) leaq 12512(%rsp), %rbx leaq 384(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$119(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$119: movq %r13, %r9 leaq 13024(%rsp), %rbx leaq 896(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$118(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$118: movq %r13, %rdi leaq 13536(%rsp), %rbx leaq 1408(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$117(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$117: movq %r13, %r8 leaq 14048(%rsp), %rbx leaq 1920(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$116(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$116: cmpq $255, %r9 setbe %al cmpq $255, %rdi setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$93 Ljade_kem_kyber_kyber768_amd64_avx2_dec$94: leaq 4480(%rsp), %rax leaq 384(%rsp), %r10 leaq 896(%rsp), %r11 leaq 1408(%rsp), %rbx leaq 1920(%rsp), %rbp leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$115(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$115: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r10) vmovhpd %xmm1, (%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbx) vmovhpd %xmm0, (%rbp) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r10) vmovhpd %xmm1, 8(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbx) vmovhpd %xmm0, 8(%rbp) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r10) vmovhpd %xmm1, 16(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbx) vmovhpd %xmm0, 16(%rbp) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r10) vmovhpd %xmm1, 24(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbx) vmovhpd %xmm0, 24(%rbp) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r10) vmovhpd %xmm1, 32(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbx) vmovhpd %xmm0, 32(%rbp) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r10) vmovhpd %xmm1, 40(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbx) vmovhpd %xmm0, 40(%rbp) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r10) vmovhpd %xmm1, 48(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbx) vmovhpd %xmm0, 48(%rbp) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r10) vmovhpd %xmm1, 56(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbx) vmovhpd %xmm0, 56(%rbp) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r10) vmovhpd %xmm1, 64(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbx) vmovhpd %xmm0, 64(%rbp) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r10) vmovhpd %xmm1, 72(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbx) vmovhpd %xmm0, 72(%rbp) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r10) vmovhpd %xmm1, 80(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbx) vmovhpd %xmm0, 80(%rbp) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r10) vmovhpd %xmm1, 88(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbx) vmovhpd %xmm0, 88(%rbp) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r10) vmovhpd %xmm1, 96(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbx) vmovhpd %xmm0, 96(%rbp) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r10) vmovhpd %xmm1, 104(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbx) vmovhpd %xmm0, 104(%rbp) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r10) vmovhpd %xmm1, 112(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbx) vmovhpd %xmm0, 112(%rbp) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r10) vmovhpd %xmm1, 120(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbx) vmovhpd %xmm0, 120(%rbp) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r10) vmovhpd %xmm1, 128(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbx) vmovhpd %xmm0, 128(%rbp) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r10) vmovhpd %xmm1, 136(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbx) vmovhpd %xmm0, 136(%rbp) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r10) vmovhpd %xmm1, 144(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbx) vmovhpd %xmm0, 144(%rbp) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r10) vmovhpd %xmm1, 152(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbx) vmovhpd %xmm0, 152(%rbp) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r10) vmovhpd %xmm1, 160(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbx) vmovhpd %xmm0, 160(%rbp) leaq 12512(%rsp), %rax leaq 384(%rsp), %rcx movq $0, %rdx cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$110 Ljade_kem_kyber_kyber768_amd64_avx2_dec$111: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$114 movw %si, (%rax,%r9,2) incq %r9 Ljade_kem_kyber_kyber768_amd64_avx2_dec$114: cmpq $256, %r9 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$112 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$112 movw %r11w, (%rax,%r9,2) incq %r9 Ljade_kem_kyber_kyber768_amd64_avx2_dec$113: Ljade_kem_kyber_kyber768_amd64_avx2_dec$112: cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$110: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$111 leaq 13024(%rsp), %rax leaq 896(%rsp), %rcx movq $0, %rdx cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$105 Ljade_kem_kyber_kyber768_amd64_avx2_dec$106: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$109 movw %si, (%rax,%rdi,2) incq %rdi Ljade_kem_kyber_kyber768_amd64_avx2_dec$109: cmpq $256, %rdi jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$107 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$107 movw %r11w, (%rax,%rdi,2) incq %rdi Ljade_kem_kyber_kyber768_amd64_avx2_dec$108: Ljade_kem_kyber_kyber768_amd64_avx2_dec$107: cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$105: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$106 leaq 13536(%rsp), %rax leaq 1408(%rsp), %rcx movq $0, %rdx cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$100 Ljade_kem_kyber_kyber768_amd64_avx2_dec$101: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$104 movw %si, (%rax,%r8,2) incq %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$104: cmpq $256, %r8 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$102 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$102 movw %r11w, (%rax,%r8,2) incq %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$103: Ljade_kem_kyber_kyber768_amd64_avx2_dec$102: cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$100: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$101 leaq 14048(%rsp), %rax leaq 1920(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$95 Ljade_kem_kyber_kyber768_amd64_avx2_dec$96: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$99 movw %si, (%rax,%r13,2) incq %r13 Ljade_kem_kyber_kyber768_amd64_avx2_dec$99: cmpq $256, %r13 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$97 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$97 movw %r11w, (%rax,%r13,2) incq %r13 Ljade_kem_kyber_kyber768_amd64_avx2_dec$98: Ljade_kem_kyber_kyber768_amd64_avx2_dec$97: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$95: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$96 cmpq $255, %r9 setbe %al cmpq $255, %rdi setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl Ljade_kem_kyber_kyber768_amd64_avx2_dec$93: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$94 vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 384(%rsp) vmovdqu %ymm0, 896(%rsp) vmovdqu %ymm0, 1408(%rsp) vmovdqu %ymm0, 1920(%rsp) vmovdqu %ymm0, (%rsp) movb $1, 416(%rsp) movb $1, 417(%rsp) movb $1, 928(%rsp) movb $2, 929(%rsp) movb $2, 1440(%rsp) movb $0, 1441(%rsp) movb $2, 1952(%rsp) movb $1, 1953(%rsp) leaq 4480(%rsp), %rax leaq 384(%rsp), %rcx leaq 896(%rsp), %rdx leaq 1408(%rsp), %rsi leaq 1920(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$92(%rip), %r8 movq %r8, (%rsp) jmp L_shake128_absorb4x_34$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$92: leaq 8(%rsp), %rsp leaq 4480(%rsp), %rax leaq 384(%rsp), %rdi leaq 896(%rsp), %r8 leaq 1408(%rsp), %r9 leaq 1920(%rsp), %r10 movq %rdi, %r11 movq %r8, %rbx movq %r9, %rbp movq %r10, %r12 leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$91(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$91: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 168(%rdi), %r11 leaq 168(%r8), %rbx leaq 168(%r9), %rbp leaq 168(%r10), %r12 leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$90(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$90: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 336(%rdi), %rdi leaq 336(%r8), %r8 leaq 336(%r9), %r9 leaq 336(%r10), %r10 leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$89(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$89: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%rdi) vmovhpd %xmm1, (%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%r9) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%rdi) vmovhpd %xmm1, 8(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%r9) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%rdi) vmovhpd %xmm1, 16(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%r9) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%rdi) vmovhpd %xmm1, 24(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%r9) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%rdi) vmovhpd %xmm1, 32(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%r9) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%rdi) vmovhpd %xmm1, 40(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%r9) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%rdi) vmovhpd %xmm1, 48(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%r9) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%rdi) vmovhpd %xmm1, 56(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%r9) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%rdi) vmovhpd %xmm1, 64(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%r9) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%rdi) vmovhpd %xmm1, 72(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%r9) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%rdi) vmovhpd %xmm1, 80(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%r9) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%rdi) vmovhpd %xmm1, 88(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%r9) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%rdi) vmovhpd %xmm1, 96(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%r9) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%rdi) vmovhpd %xmm1, 104(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%r9) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%rdi) vmovhpd %xmm1, 112(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%r9) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%rdi) vmovhpd %xmm1, 120(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%r9) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%rdi) vmovhpd %xmm1, 128(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%r9) vmovhpd %xmm0, 128(%r10) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%rdi) vmovhpd %xmm1, 136(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%r9) vmovhpd %xmm0, 136(%r10) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%rdi) vmovhpd %xmm1, 144(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%r9) vmovhpd %xmm0, 144(%r10) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%rdi) vmovhpd %xmm1, 152(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%r9) vmovhpd %xmm0, 152(%r10) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%rdi) vmovhpd %xmm1, 160(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%r9) vmovhpd %xmm0, 160(%r10) leaq 14560(%rsp), %rbx leaq 384(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$88(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$88: movq %r13, %rdi leaq 15072(%rsp), %rbx leaq 896(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$87(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$87: movq %r13, %r8 leaq 15584(%rsp), %rbx leaq 1408(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$86(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$86: movq %r13, %r9 leaq 16096(%rsp), %rbx leaq 1920(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$85(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$85: cmpq $255, %rdi setbe %al cmpq $255, %r8 setbe %cl orb %cl, %al cmpq $255, %r9 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$62 Ljade_kem_kyber_kyber768_amd64_avx2_dec$63: leaq 4480(%rsp), %rax leaq 384(%rsp), %r10 leaq 896(%rsp), %r11 leaq 1408(%rsp), %rbx leaq 1920(%rsp), %rbp leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$84(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$84: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r10) vmovhpd %xmm1, (%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbx) vmovhpd %xmm0, (%rbp) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r10) vmovhpd %xmm1, 8(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbx) vmovhpd %xmm0, 8(%rbp) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r10) vmovhpd %xmm1, 16(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbx) vmovhpd %xmm0, 16(%rbp) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r10) vmovhpd %xmm1, 24(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbx) vmovhpd %xmm0, 24(%rbp) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r10) vmovhpd %xmm1, 32(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbx) vmovhpd %xmm0, 32(%rbp) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r10) vmovhpd %xmm1, 40(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbx) vmovhpd %xmm0, 40(%rbp) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r10) vmovhpd %xmm1, 48(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbx) vmovhpd %xmm0, 48(%rbp) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r10) vmovhpd %xmm1, 56(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbx) vmovhpd %xmm0, 56(%rbp) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r10) vmovhpd %xmm1, 64(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbx) vmovhpd %xmm0, 64(%rbp) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r10) vmovhpd %xmm1, 72(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbx) vmovhpd %xmm0, 72(%rbp) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r10) vmovhpd %xmm1, 80(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbx) vmovhpd %xmm0, 80(%rbp) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r10) vmovhpd %xmm1, 88(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbx) vmovhpd %xmm0, 88(%rbp) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r10) vmovhpd %xmm1, 96(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbx) vmovhpd %xmm0, 96(%rbp) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r10) vmovhpd %xmm1, 104(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbx) vmovhpd %xmm0, 104(%rbp) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r10) vmovhpd %xmm1, 112(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbx) vmovhpd %xmm0, 112(%rbp) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r10) vmovhpd %xmm1, 120(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbx) vmovhpd %xmm0, 120(%rbp) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r10) vmovhpd %xmm1, 128(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbx) vmovhpd %xmm0, 128(%rbp) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r10) vmovhpd %xmm1, 136(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbx) vmovhpd %xmm0, 136(%rbp) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r10) vmovhpd %xmm1, 144(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbx) vmovhpd %xmm0, 144(%rbp) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r10) vmovhpd %xmm1, 152(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbx) vmovhpd %xmm0, 152(%rbp) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r10) vmovhpd %xmm1, 160(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbx) vmovhpd %xmm0, 160(%rbp) leaq 14560(%rsp), %rax leaq 384(%rsp), %rcx movq $0, %rdx cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$79 Ljade_kem_kyber_kyber768_amd64_avx2_dec$80: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$83 movw %si, (%rax,%rdi,2) incq %rdi Ljade_kem_kyber_kyber768_amd64_avx2_dec$83: cmpq $256, %rdi jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$81 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$81 movw %r11w, (%rax,%rdi,2) incq %rdi Ljade_kem_kyber_kyber768_amd64_avx2_dec$82: Ljade_kem_kyber_kyber768_amd64_avx2_dec$81: cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$79: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$80 leaq 15072(%rsp), %rax leaq 896(%rsp), %rcx movq $0, %rdx cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$74 Ljade_kem_kyber_kyber768_amd64_avx2_dec$75: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$78 movw %si, (%rax,%r8,2) incq %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$78: cmpq $256, %r8 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$76 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$76 movw %r11w, (%rax,%r8,2) incq %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$77: Ljade_kem_kyber_kyber768_amd64_avx2_dec$76: cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$74: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$75 leaq 15584(%rsp), %rax leaq 1408(%rsp), %rcx movq $0, %rdx cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$69 Ljade_kem_kyber_kyber768_amd64_avx2_dec$70: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$73 movw %si, (%rax,%r9,2) incq %r9 Ljade_kem_kyber_kyber768_amd64_avx2_dec$73: cmpq $256, %r9 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$71 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$71 movw %r11w, (%rax,%r9,2) incq %r9 Ljade_kem_kyber_kyber768_amd64_avx2_dec$72: Ljade_kem_kyber_kyber768_amd64_avx2_dec$71: cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$69: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$70 leaq 16096(%rsp), %rax leaq 1920(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$64 Ljade_kem_kyber_kyber768_amd64_avx2_dec$65: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$68 movw %si, (%rax,%r13,2) incq %r13 Ljade_kem_kyber_kyber768_amd64_avx2_dec$68: cmpq $256, %r13 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$66 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$66 movw %r11w, (%rax,%r13,2) incq %r13 Ljade_kem_kyber_kyber768_amd64_avx2_dec$67: Ljade_kem_kyber_kyber768_amd64_avx2_dec$66: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$64: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$65 cmpq $255, %rdi setbe %al cmpq $255, %r8 setbe %cl orb %cl, %al cmpq $255, %r9 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl Ljade_kem_kyber_kyber768_amd64_avx2_dec$62: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$63 vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 384(%rsp) movb $2, 416(%rsp) movb $2, 417(%rsp) leaq 384(%rsp), %rax vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm0, 224(%rsp) vmovdqu %ymm0, 256(%rsp) vmovdqu %ymm0, 288(%rsp) vmovdqu %ymm0, 320(%rsp) vmovdqu %ymm0, 352(%rsp) vpbroadcastq (%rax), %ymm5 movq 8(%rax), %rcx movq glob_data + 6208(%rip), %rdx movq %rcx, 160(%rsp,%rdx,8) movq 16(%rax), %rcx movq glob_data + 6216(%rip), %rdx movq %rcx, 160(%rsp,%rdx,8) movq 24(%rax), %rcx movq glob_data + 6224(%rip), %rdx movq %rcx, 160(%rsp,%rdx,8) movb 32(%rax), %cl movq glob_data + 6232(%rip), %rdx shlq $3, %rdx movb %cl, 160(%rsp,%rdx) movb 33(%rax), %al incq %rdx movb %al, 160(%rsp,%rdx) incq %rdx movb $31, 160(%rsp,%rdx) movq glob_data + 6360(%rip), %rax shlq $3, %rax movq $167, %rcx andq $7, %rcx addq %rcx, %rax movb $-128, 160(%rsp,%rax) vmovdqu 192(%rsp), %ymm0 vmovdqu 224(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 288(%rsp), %ymm6 vmovdqu 320(%rsp), %ymm3 vmovdqu 352(%rsp), %ymm4 leaq 384(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$61: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$61 vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 552(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$60: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$60 vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 720(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$59: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$59 vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) leaq 16608(%rsp), %rbx leaq 384(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$58(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$58: cmpq $255, %r13 setbe %al vmovdqu 160(%rsp), %ymm6 vmovdqu 192(%rsp), %ymm0 vmovdqu 224(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 288(%rsp), %ymm3 vmovdqu 320(%rsp), %ymm4 vmovdqu 352(%rsp), %ymm5 jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$50 Ljade_kem_kyber_kyber768_amd64_avx2_dec$51: leaq 384(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$57: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$57 vmovdqu %ymm6, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm3, 288(%rsp) vmovdqu %ymm4, 320(%rsp) vmovdqu %ymm5, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 16608(%rsp), %rax leaq 384(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %dil testb %dil, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$52 Ljade_kem_kyber_kyber768_amd64_avx2_dec$53: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw (%rcx,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$56 movw %si, (%rax,%r13,2) incq %r13 Ljade_kem_kyber_kyber768_amd64_avx2_dec$56: cmpq $256, %r13 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$54 cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$54 movw %r8w, (%rax,%r13,2) incq %r13 Ljade_kem_kyber_kyber768_amd64_avx2_dec$55: Ljade_kem_kyber_kyber768_amd64_avx2_dec$54: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %dil testb %dil, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$52: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$53 cmpq $255, %r13 setbe %al Ljade_kem_kyber_kyber768_amd64_avx2_dec$50: cmpb $0, %al jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$51 leaq 12512(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$49(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$49: leaq 13024(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$48(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$48: leaq 13536(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$47(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$47: leaq 14048(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$46(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$46: leaq 14560(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$45(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$45: leaq 15072(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$44(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$44: leaq 15584(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$43(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$43: leaq 16096(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$42(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$42: leaq 16608(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$41(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$41: movq 17152(%rsp), %r10 movb $0, %cl leaq 7904(%rsp), %rax leaq 8416(%rsp), %rdi leaq 8928(%rsp), %r8 leaq 9440(%rsp), %r9 leaq -1472(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$40(%rip), %rdx movq %rdx, 1464(%rsp) jmp L_poly_getnoise_eta1_4x$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$40: leaq 1472(%rsp), %rsp movb $4, %cl leaq 9952(%rsp), %rax leaq 10464(%rsp), %rdi leaq 2944(%rsp), %r8 leaq 10976(%rsp), %r9 leaq -1472(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$39(%rip), %rdx movq %rdx, 1464(%rsp) jmp L_poly_getnoise_eta1_4x$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$39: leaq 1472(%rsp), %rsp leaq 7904(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$38(%rip), %rdi jmp L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$38: leaq 8416(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$37(%rip), %rdi jmp L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$37: leaq 8928(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$36(%rip), %rdi jmp L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$36: leaq 10976(%rsp), %rcx leaq 12512(%rsp), %rsi leaq 7904(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$35(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$35: leaq 2432(%rsp), %rcx leaq 13024(%rsp), %rsi leaq 8416(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$34(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$34: leaq 10976(%rsp), %rcx leaq 2432(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$33(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$33: leaq 2432(%rsp), %rcx leaq 13536(%rsp), %rsi leaq 8928(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$32(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$32: leaq 10976(%rsp), %rcx leaq 2432(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$31(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$31: leaq 11488(%rsp), %rcx leaq 14048(%rsp), %rsi leaq 7904(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$30(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$30: leaq 2432(%rsp), %rcx leaq 14560(%rsp), %rsi leaq 8416(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$29(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$29: leaq 11488(%rsp), %rcx leaq 2432(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$28(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$28: leaq 2432(%rsp), %rcx leaq 15072(%rsp), %rsi leaq 8928(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$27(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$27: leaq 11488(%rsp), %rcx leaq 2432(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$26(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$26: leaq 12000(%rsp), %rcx leaq 15584(%rsp), %rsi leaq 7904(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$25(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$25: leaq 2432(%rsp), %rcx leaq 16096(%rsp), %rsi leaq 8416(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$24(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$24: leaq 12000(%rsp), %rcx leaq 2432(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$23(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$23: leaq 2432(%rsp), %rcx leaq 16608(%rsp), %rsi leaq 8928(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$22(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$22: leaq 12000(%rsp), %rcx leaq 2432(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$21(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$21: leaq 2432(%rsp), %rcx leaq 6368(%rsp), %rsi leaq 7904(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$20(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$20: leaq 3968(%rsp), %rcx leaq 6880(%rsp), %rsi leaq 8416(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$19(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$19: leaq 2432(%rsp), %rcx leaq 3968(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$18(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$18: leaq 3968(%rsp), %rcx leaq 7392(%rsp), %rsi leaq 8928(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$17(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$17: leaq 2432(%rsp), %rcx leaq 3968(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$16(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$16: leaq 10976(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$15(%rip), %rdi jmp L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$15: leaq 11488(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$14(%rip), %rdi jmp L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$14: leaq 12000(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$13(%rip), %rdi jmp L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$13: leaq 2432(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$12(%rip), %rdi jmp L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$12: leaq 10976(%rsp), %rcx leaq 9440(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$11(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$11: leaq 11488(%rsp), %rcx leaq 9952(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$10(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$10: leaq 12000(%rsp), %rcx leaq 10464(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$9(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$9: leaq 2432(%rsp), %rcx leaq 2944(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$8(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$8: leaq 2432(%rsp), %rcx leaq 3456(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$7(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$7: leaq 10976(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 11488(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 12000(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 2432(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) movq 17144(%rsp), %rax movq %rax, %rdx leaq 10976(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$6(%rip), %r8 jmp L_poly_csubq$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$6: leaq 11488(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$5(%rip), %r8 jmp L_poly_csubq$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$5: leaq 12000(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$4(%rip), %r8 jmp L_poly_csubq$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$4: leaq glob_data + 384(%rip), %rcx vmovdqu (%rcx), %ymm0 vpsllw $3, %ymm0, %ymm1 vpbroadcastw glob_data + 6422(%rip), %ymm2 vpbroadcastw glob_data + 6420(%rip), %ymm3 vpbroadcastw glob_data + 6418(%rip), %ymm4 vpbroadcastq glob_data + 6184(%rip), %ymm5 vpbroadcastq glob_data + 6176(%rip), %ymm6 vmovdqu glob_data + 32(%rip), %ymm7 vmovdqu 10976(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, (%rdx) vpextrd $0, %xmm8, 16(%rdx) vmovdqu 11008(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 20(%rdx) vpextrd $0, %xmm8, 36(%rdx) vmovdqu 11040(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 40(%rdx) vpextrd $0, %xmm8, 56(%rdx) vmovdqu 11072(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 60(%rdx) vpextrd $0, %xmm8, 76(%rdx) vmovdqu 11104(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 80(%rdx) vpextrd $0, %xmm8, 96(%rdx) vmovdqu 11136(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 100(%rdx) vpextrd $0, %xmm8, 116(%rdx) vmovdqu 11168(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 120(%rdx) vpextrd $0, %xmm8, 136(%rdx) vmovdqu 11200(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 140(%rdx) vpextrd $0, %xmm8, 156(%rdx) vmovdqu 11232(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 160(%rdx) vpextrd $0, %xmm8, 176(%rdx) vmovdqu 11264(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 180(%rdx) vpextrd $0, %xmm8, 196(%rdx) vmovdqu 11296(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 200(%rdx) vpextrd $0, %xmm8, 216(%rdx) vmovdqu 11328(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 220(%rdx) vpextrd $0, %xmm8, 236(%rdx) vmovdqu 11360(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 240(%rdx) vpextrd $0, %xmm8, 256(%rdx) vmovdqu 11392(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 260(%rdx) vpextrd $0, %xmm8, 276(%rdx) vmovdqu 11424(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 280(%rdx) vpextrd $0, %xmm8, 296(%rdx) vmovdqu 11456(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 300(%rdx) vpextrd $0, %xmm8, 316(%rdx) vmovdqu 11488(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 320(%rdx) vpextrd $0, %xmm8, 336(%rdx) vmovdqu 11520(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 340(%rdx) vpextrd $0, %xmm8, 356(%rdx) vmovdqu 11552(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 360(%rdx) vpextrd $0, %xmm8, 376(%rdx) vmovdqu 11584(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 380(%rdx) vpextrd $0, %xmm8, 396(%rdx) vmovdqu 11616(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 400(%rdx) vpextrd $0, %xmm8, 416(%rdx) vmovdqu 11648(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 420(%rdx) vpextrd $0, %xmm8, 436(%rdx) vmovdqu 11680(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 440(%rdx) vpextrd $0, %xmm8, 456(%rdx) vmovdqu 11712(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 460(%rdx) vpextrd $0, %xmm8, 476(%rdx) vmovdqu 11744(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 480(%rdx) vpextrd $0, %xmm8, 496(%rdx) vmovdqu 11776(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 500(%rdx) vpextrd $0, %xmm8, 516(%rdx) vmovdqu 11808(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 520(%rdx) vpextrd $0, %xmm8, 536(%rdx) vmovdqu 11840(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 540(%rdx) vpextrd $0, %xmm8, 556(%rdx) vmovdqu 11872(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 560(%rdx) vpextrd $0, %xmm8, 576(%rdx) vmovdqu 11904(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 580(%rdx) vpextrd $0, %xmm8, 596(%rdx) vmovdqu 11936(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 600(%rdx) vpextrd $0, %xmm8, 616(%rdx) vmovdqu 11968(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 620(%rdx) vpextrd $0, %xmm8, 636(%rdx) vmovdqu 12000(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 640(%rdx) vpextrd $0, %xmm8, 656(%rdx) vmovdqu 12032(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 660(%rdx) vpextrd $0, %xmm8, 676(%rdx) vmovdqu 12064(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 680(%rdx) vpextrd $0, %xmm8, 696(%rdx) vmovdqu 12096(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 700(%rdx) vpextrd $0, %xmm8, 716(%rdx) vmovdqu 12128(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 720(%rdx) vpextrd $0, %xmm8, 736(%rdx) vmovdqu 12160(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 740(%rdx) vpextrd $0, %xmm8, 756(%rdx) vmovdqu 12192(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 760(%rdx) vpextrd $0, %xmm8, 776(%rdx) vmovdqu 12224(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 780(%rdx) vpextrd $0, %xmm8, 796(%rdx) vmovdqu 12256(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 800(%rdx) vpextrd $0, %xmm8, 816(%rdx) vmovdqu 12288(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 820(%rdx) vpextrd $0, %xmm8, 836(%rdx) vmovdqu 12320(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 840(%rdx) vpextrd $0, %xmm8, 856(%rdx) vmovdqu 12352(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 860(%rdx) vpextrd $0, %xmm8, 876(%rdx) vmovdqu 12384(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 880(%rdx) vpextrd $0, %xmm8, 896(%rdx) vmovdqu 12416(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 900(%rdx) vpextrd $0, %xmm8, 916(%rdx) vmovdqu 12448(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 920(%rdx) vpextrd $0, %xmm8, 936(%rdx) vmovdqu 12480(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm1 vpaddw %ymm2, %ymm8, %ymm2 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm0 vpsubw %ymm2, %ymm1, %ymm2 vpandn %ymm2, %ymm1, %ymm1 vpsrlw $15, %ymm1, %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vpmulhrsw %ymm3, %ymm0, %ymm0 vpand %ymm4, %ymm0, %ymm0 vpmaddwd %ymm5, %ymm0, %ymm0 vpsllvd %ymm6, %ymm0, %ymm0 vpsrlq $12, %ymm0, %ymm0 vpshufb %ymm7, %ymm0, %ymm0 vmovdqu %xmm0, %xmm1 vextracti128 $1, %ymm0, %xmm0 vpblendw $-32, %xmm0, %xmm1, %xmm1 vmovdqu %xmm1, 940(%rdx) vpextrd $0, %xmm0, 956(%rdx) leaq 960(%rax), %rax leaq 2432(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$3(%rip), %rsi jmp L_poly_compress_1$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$3: movq 17128(%rsp), %r8 leaq 5280(%rsp), %rax movq $0, %rcx movq $1, %rdx vpxor %ymm0, %ymm0, %ymm0 vmovdqu (%rax), %ymm1 vmovdqu (%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 32(%rax), %ymm1 vmovdqu 32(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 64(%rax), %ymm1 vmovdqu 64(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 96(%rax), %ymm1 vmovdqu 96(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 128(%rax), %ymm1 vmovdqu 128(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 160(%rax), %ymm1 vmovdqu 160(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 192(%rax), %ymm1 vmovdqu 192(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 224(%rax), %ymm1 vmovdqu 224(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 256(%rax), %ymm1 vmovdqu 256(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 288(%rax), %ymm1 vmovdqu 288(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 320(%rax), %ymm1 vmovdqu 320(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 352(%rax), %ymm1 vmovdqu 352(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 384(%rax), %ymm1 vmovdqu 384(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 416(%rax), %ymm1 vmovdqu 416(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 448(%rax), %ymm1 vmovdqu 448(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 480(%rax), %ymm1 vmovdqu 480(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 512(%rax), %ymm1 vmovdqu 512(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 544(%rax), %ymm1 vmovdqu 544(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 576(%rax), %ymm1 vmovdqu 576(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 608(%rax), %ymm1 vmovdqu 608(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 640(%rax), %ymm1 vmovdqu 640(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 672(%rax), %ymm1 vmovdqu 672(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 704(%rax), %ymm1 vmovdqu 704(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 736(%rax), %ymm1 vmovdqu 736(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 768(%rax), %ymm1 vmovdqu 768(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 800(%rax), %ymm1 vmovdqu 800(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 832(%rax), %ymm1 vmovdqu 832(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 864(%rax), %ymm1 vmovdqu 864(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 896(%rax), %ymm1 vmovdqu 896(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 928(%rax), %ymm1 vmovdqu 928(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 960(%rax), %ymm1 vmovdqu 960(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 992(%rax), %ymm1 vmovdqu 992(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 1024(%rax), %ymm1 vmovdqu 1024(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 1056(%rax), %ymm1 vmovdqu 1056(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vptest %ymm0, %ymm0 cmovne %rdx, %rcx negq %rcx shrq $63, %rcx movq 17136(%rsp), %rax addq $64, %rax addq $2304, %rax leaq 96(%rsp), %rdx negq %rcx movq %rcx, 17136(%rsp) vpbroadcastq 17136(%rsp), %ymm0 vmovdqu (%rdx), %ymm1 vmovdqu (%rax), %ymm2 vpblendvb %ymm0, %ymm2, %ymm1, %ymm0 vmovdqu %ymm0, (%rdx) movq $1088, %rdi leaq 128(%rsp), %rax leaq -256(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$2(%rip), %rcx movq %rcx, 224(%rsp) jmp L_sha3_256$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$2: leaq 256(%rsp), %rsp movq 17120(%rsp), %rdx movq $32, %rcx leaq 96(%rsp), %rax leaq -256(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$1(%rip), %rsi movq %rsi, 224(%rsp) jmp L_shake256_64$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$1: leaq 256(%rsp), %rsp xorq %rax, %rax movq 17160(%rsp), %rbx movq 17168(%rsp), %rbp movq 17176(%rsp), %r12 movq 17184(%rsp), %r13 movq 17192(%rsp), %rsp ret _jade_kem_kyber_kyber768_amd64_avx2_enc: jade_kem_kyber_kyber768_amd64_avx2_enc: movq %rsp, %rax leaq -72(%rsp), %rsp andq $-32, %rsp movq %rax, 64(%rsp) movq %rbx, 32(%rsp) movq %rbp, 40(%rsp) movq %r12, 48(%rsp) movq %r13, 56(%rsp) movq %rdi, %rbp movq %rsi, %r12 movq %rdx, %rbx movq %rsp, %rdi movq $32, %rsi call __jasmin_syscall_randombytes__ movq %rsp, %rcx leaq -16064(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_enc$1(%rip), %rax movq %rax, 16056(%rsp) jmp L__crypto_kem_enc_derand_jazz$1 Ljade_kem_kyber_kyber768_amd64_avx2_enc$1: leaq 16064(%rsp), %rsp xorq %rax, %rax movq 32(%rsp), %rbx movq 40(%rsp), %rbp movq 48(%rsp), %r12 movq 56(%rsp), %r13 movq 64(%rsp), %rsp ret _jade_kem_kyber_kyber768_amd64_avx2_enc_derand: jade_kem_kyber_kyber768_amd64_avx2_enc_derand: movq %rsp, %rax leaq -72(%rsp), %rsp andq $-32, %rsp movq %rax, 64(%rsp) movq %rbx, 32(%rsp) movq %rbp, 40(%rsp) movq %r12, 48(%rsp) movq %r13, 56(%rsp) movq %rdi, %rbp movq %rsi, %r12 movq %rdx, %rbx movq %rsp, %rax movb (%rcx), %dl movb %dl, (%rax) movb 1(%rcx), %dl movb %dl, 1(%rax) movb 2(%rcx), %dl movb %dl, 2(%rax) movb 3(%rcx), %dl movb %dl, 3(%rax) movb 4(%rcx), %dl movb %dl, 4(%rax) movb 5(%rcx), %dl movb %dl, 5(%rax) movb 6(%rcx), %dl movb %dl, 6(%rax) movb 7(%rcx), %dl movb %dl, 7(%rax) movb 8(%rcx), %dl movb %dl, 8(%rax) movb 9(%rcx), %dl movb %dl, 9(%rax) movb 10(%rcx), %dl movb %dl, 10(%rax) movb 11(%rcx), %dl movb %dl, 11(%rax) movb 12(%rcx), %dl movb %dl, 12(%rax) movb 13(%rcx), %dl movb %dl, 13(%rax) movb 14(%rcx), %dl movb %dl, 14(%rax) movb 15(%rcx), %dl movb %dl, 15(%rax) movb 16(%rcx), %dl movb %dl, 16(%rax) movb 17(%rcx), %dl movb %dl, 17(%rax) movb 18(%rcx), %dl movb %dl, 18(%rax) movb 19(%rcx), %dl movb %dl, 19(%rax) movb 20(%rcx), %dl movb %dl, 20(%rax) movb 21(%rcx), %dl movb %dl, 21(%rax) movb 22(%rcx), %dl movb %dl, 22(%rax) movb 23(%rcx), %dl movb %dl, 23(%rax) movb 24(%rcx), %dl movb %dl, 24(%rax) movb 25(%rcx), %dl movb %dl, 25(%rax) movb 26(%rcx), %dl movb %dl, 26(%rax) movb 27(%rcx), %dl movb %dl, 27(%rax) movb 28(%rcx), %dl movb %dl, 28(%rax) movb 29(%rcx), %dl movb %dl, 29(%rax) movb 30(%rcx), %dl movb %dl, 30(%rax) movb 31(%rcx), %cl movb %cl, 31(%rax) movq %rsp, %rcx leaq -16064(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_enc_derand$1(%rip), %rax movq %rax, 16056(%rsp) jmp L__crypto_kem_enc_derand_jazz$1 Ljade_kem_kyber_kyber768_amd64_avx2_enc_derand$1: leaq 16064(%rsp), %rsp xorq %rax, %rax movq 32(%rsp), %rbx movq 40(%rsp), %rbp movq 48(%rsp), %r12 movq 56(%rsp), %r13 movq 64(%rsp), %rsp ret _jade_kem_kyber_kyber768_amd64_avx2_keypair: jade_kem_kyber_kyber768_amd64_avx2_keypair: movq %rsp, %rax leaq -104(%rsp), %rsp andq $-32, %rsp movq %rax, 96(%rsp) movq %rbx, 64(%rsp) movq %rbp, 72(%rsp) movq %r12, 80(%rsp) movq %r13, 88(%rsp) movq %rdi, %rbp movq %rsi, %rbx movq %rsp, %rdi movq $64, %rsi call __jasmin_syscall_randombytes__ movq %rsp, %rax leaq -13024(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_keypair$1(%rip), %rcx movq %rcx, 13000(%rsp) jmp L__crypto_kem_keypair_derand_jazz$1 Ljade_kem_kyber_kyber768_amd64_avx2_keypair$1: leaq 13024(%rsp), %rsp xorq %rax, %rax movq 64(%rsp), %rbx movq 72(%rsp), %rbp movq 80(%rsp), %r12 movq 88(%rsp), %r13 movq 96(%rsp), %rsp ret _jade_kem_kyber_kyber768_amd64_avx2_keypair_derand: jade_kem_kyber_kyber768_amd64_avx2_keypair_derand: movq %rsp, %rax leaq -104(%rsp), %rsp andq $-32, %rsp movq %rax, 96(%rsp) movq %rbx, 64(%rsp) movq %rbp, 72(%rsp) movq %r12, 80(%rsp) movq %r13, 88(%rsp) movq %rdi, %rbp movq %rsi, %rbx movq %rsp, %rax movb (%rdx), %cl movb %cl, (%rax) movb 1(%rdx), %cl movb %cl, 1(%rax) movb 2(%rdx), %cl movb %cl, 2(%rax) movb 3(%rdx), %cl movb %cl, 3(%rax) movb 4(%rdx), %cl movb %cl, 4(%rax) movb 5(%rdx), %cl movb %cl, 5(%rax) movb 6(%rdx), %cl movb %cl, 6(%rax) movb 7(%rdx), %cl movb %cl, 7(%rax) movb 8(%rdx), %cl movb %cl, 8(%rax) movb 9(%rdx), %cl movb %cl, 9(%rax) movb 10(%rdx), %cl movb %cl, 10(%rax) movb 11(%rdx), %cl movb %cl, 11(%rax) movb 12(%rdx), %cl movb %cl, 12(%rax) movb 13(%rdx), %cl movb %cl, 13(%rax) movb 14(%rdx), %cl movb %cl, 14(%rax) movb 15(%rdx), %cl movb %cl, 15(%rax) movb 16(%rdx), %cl movb %cl, 16(%rax) movb 17(%rdx), %cl movb %cl, 17(%rax) movb 18(%rdx), %cl movb %cl, 18(%rax) movb 19(%rdx), %cl movb %cl, 19(%rax) movb 20(%rdx), %cl movb %cl, 20(%rax) movb 21(%rdx), %cl movb %cl, 21(%rax) movb 22(%rdx), %cl movb %cl, 22(%rax) movb 23(%rdx), %cl movb %cl, 23(%rax) movb 24(%rdx), %cl movb %cl, 24(%rax) movb 25(%rdx), %cl movb %cl, 25(%rax) movb 26(%rdx), %cl movb %cl, 26(%rax) movb 27(%rdx), %cl movb %cl, 27(%rax) movb 28(%rdx), %cl movb %cl, 28(%rax) movb 29(%rdx), %cl movb %cl, 29(%rax) movb 30(%rdx), %cl movb %cl, 30(%rax) movb 31(%rdx), %cl movb %cl, 31(%rax) movb 32(%rdx), %cl movb %cl, 32(%rax) movb 33(%rdx), %cl movb %cl, 33(%rax) movb 34(%rdx), %cl movb %cl, 34(%rax) movb 35(%rdx), %cl movb %cl, 35(%rax) movb 36(%rdx), %cl movb %cl, 36(%rax) movb 37(%rdx), %cl movb %cl, 37(%rax) movb 38(%rdx), %cl movb %cl, 38(%rax) movb 39(%rdx), %cl movb %cl, 39(%rax) movb 40(%rdx), %cl movb %cl, 40(%rax) movb 41(%rdx), %cl movb %cl, 41(%rax) movb 42(%rdx), %cl movb %cl, 42(%rax) movb 43(%rdx), %cl movb %cl, 43(%rax) movb 44(%rdx), %cl movb %cl, 44(%rax) movb 45(%rdx), %cl movb %cl, 45(%rax) movb 46(%rdx), %cl movb %cl, 46(%rax) movb 47(%rdx), %cl movb %cl, 47(%rax) movb 48(%rdx), %cl movb %cl, 48(%rax) movb 49(%rdx), %cl movb %cl, 49(%rax) movb 50(%rdx), %cl movb %cl, 50(%rax) movb 51(%rdx), %cl movb %cl, 51(%rax) movb 52(%rdx), %cl movb %cl, 52(%rax) movb 53(%rdx), %cl movb %cl, 53(%rax) movb 54(%rdx), %cl movb %cl, 54(%rax) movb 55(%rdx), %cl movb %cl, 55(%rax) movb 56(%rdx), %cl movb %cl, 56(%rax) movb 57(%rdx), %cl movb %cl, 57(%rax) movb 58(%rdx), %cl movb %cl, 58(%rax) movb 59(%rdx), %cl movb %cl, 59(%rax) movb 60(%rdx), %cl movb %cl, 60(%rax) movb 61(%rdx), %cl movb %cl, 61(%rax) movb 62(%rdx), %cl movb %cl, 62(%rax) movb 63(%rdx), %cl movb %cl, 63(%rax) movq %rsp, %rax leaq -13024(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_keypair_derand$1(%rip), %rcx movq %rcx, 13000(%rsp) jmp L__crypto_kem_keypair_derand_jazz$1 Ljade_kem_kyber_kyber768_amd64_avx2_keypair_derand$1: leaq 13024(%rsp), %rsp xorq %rax, %rax movq 64(%rsp), %rbx movq 72(%rsp), %rbp movq 80(%rsp), %r12 movq 88(%rsp), %r13 movq 96(%rsp), %rsp ret L__crypto_kem_enc_derand_jazz$1: movq %rbx, 16032(%rsp) movq %rbp, 16040(%rsp) movq %r12, 16048(%rsp) leaq 32(%rsp), %rax leaq -256(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$133(%rip), %rdx movq %rdx, 224(%rsp) jmp L_sha3_256_32$1 L__crypto_kem_enc_derand_jazz$133: leaq 256(%rsp), %rsp movq 16032(%rsp), %r8 movq $1184, %rdi leaq 64(%rsp), %rax leaq -256(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$132(%rip), %rcx movq %rcx, 224(%rsp) jmp L_sha3_256$1 L__crypto_kem_enc_derand_jazz$132: leaq 256(%rsp), %rsp leaq 96(%rsp), %rax leaq 32(%rsp), %rcx leaq -256(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$131(%rip), %rdx movq %rdx, 224(%rsp) jmp L_sha3_512_64$1 L__crypto_kem_enc_derand_jazz$131: leaq 256(%rsp), %rsp movq 16032(%rsp), %rcx leaq 32(%rsp), %rax leaq 128(%rsp), %rdx movq %rcx, %rdi leaq 5280(%rsp), %r8 leaq L__crypto_kem_enc_derand_jazz$130(%rip), %r10 jmp L_poly_frombytes$1 L__crypto_kem_enc_derand_jazz$130: addq $384, %rdi leaq 5792(%rsp), %r8 leaq L__crypto_kem_enc_derand_jazz$129(%rip), %r10 jmp L_poly_frombytes$1 L__crypto_kem_enc_derand_jazz$129: addq $384, %rdi leaq 6304(%rsp), %r8 leaq L__crypto_kem_enc_derand_jazz$128(%rip), %r10 jmp L_poly_frombytes$1 L__crypto_kem_enc_derand_jazz$128: movq $0, %rsi addq $1152, %rcx jmp L__crypto_kem_enc_derand_jazz$126 L__crypto_kem_enc_derand_jazz$127: movq (%rcx), %rdi movq %rdi, (%rsp,%rsi,8) addq $8, %rcx incq %rsi L__crypto_kem_enc_derand_jazz$126: cmpq $4, %rsi jb L__crypto_kem_enc_derand_jazz$127 leaq 2432(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$125(%rip), %r8 jmp L_poly_frommsg_1$1 L__crypto_kem_enc_derand_jazz$125: movq %rdx, 16032(%rsp) vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 384(%rsp) vmovdqu %ymm0, 896(%rsp) vmovdqu %ymm0, 1408(%rsp) vmovdqu %ymm0, 1920(%rsp) vmovdqu %ymm0, (%rsp) movb $0, 416(%rsp) movb $0, 417(%rsp) movb $0, 928(%rsp) movb $1, 929(%rsp) movb $0, 1440(%rsp) movb $2, 1441(%rsp) movb $1, 1952(%rsp) movb $0, 1953(%rsp) leaq 4480(%rsp), %rax leaq 384(%rsp), %rcx leaq 896(%rsp), %rdx leaq 1408(%rsp), %rsi leaq 1920(%rsp), %rdi leaq -8(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$124(%rip), %r8 movq %r8, (%rsp) jmp L_shake128_absorb4x_34$1 L__crypto_kem_enc_derand_jazz$124: leaq 8(%rsp), %rsp leaq 4480(%rsp), %rax leaq 384(%rsp), %rdi leaq 896(%rsp), %r8 leaq 1408(%rsp), %r9 leaq 1920(%rsp), %r10 movq %rdi, %r11 movq %r8, %rbx movq %r9, %rbp movq %r10, %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$123(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$123: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 168(%rdi), %r11 leaq 168(%r8), %rbx leaq 168(%r9), %rbp leaq 168(%r10), %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$122(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$122: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 336(%rdi), %rdi leaq 336(%r8), %r8 leaq 336(%r9), %r9 leaq 336(%r10), %r10 leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$121(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$121: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%rdi) vmovhpd %xmm1, (%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%r9) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%rdi) vmovhpd %xmm1, 8(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%r9) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%rdi) vmovhpd %xmm1, 16(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%r9) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%rdi) vmovhpd %xmm1, 24(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%r9) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%rdi) vmovhpd %xmm1, 32(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%r9) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%rdi) vmovhpd %xmm1, 40(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%r9) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%rdi) vmovhpd %xmm1, 48(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%r9) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%rdi) vmovhpd %xmm1, 56(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%r9) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%rdi) vmovhpd %xmm1, 64(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%r9) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%rdi) vmovhpd %xmm1, 72(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%r9) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%rdi) vmovhpd %xmm1, 80(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%r9) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%rdi) vmovhpd %xmm1, 88(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%r9) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%rdi) vmovhpd %xmm1, 96(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%r9) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%rdi) vmovhpd %xmm1, 104(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%r9) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%rdi) vmovhpd %xmm1, 112(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%r9) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%rdi) vmovhpd %xmm1, 120(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%r9) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%rdi) vmovhpd %xmm1, 128(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%r9) vmovhpd %xmm0, 128(%r10) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%rdi) vmovhpd %xmm1, 136(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%r9) vmovhpd %xmm0, 136(%r10) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%rdi) vmovhpd %xmm1, 144(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%r9) vmovhpd %xmm0, 144(%r10) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%rdi) vmovhpd %xmm1, 152(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%r9) vmovhpd %xmm0, 152(%r10) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%rdi) vmovhpd %xmm1, 160(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%r9) vmovhpd %xmm0, 160(%r10) leaq 11424(%rsp), %rbx leaq 384(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$120(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$120: movq %r13, %r9 leaq 11936(%rsp), %rbx leaq 896(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$119(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$119: movq %r13, %rdi leaq 12448(%rsp), %rbx leaq 1408(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$118(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$118: movq %r13, %r8 leaq 12960(%rsp), %rbx leaq 1920(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$117(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$117: cmpq $255, %r9 setbe %al cmpq $255, %rdi setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl jmp L__crypto_kem_enc_derand_jazz$94 L__crypto_kem_enc_derand_jazz$95: leaq 4480(%rsp), %rax leaq 384(%rsp), %r10 leaq 896(%rsp), %r11 leaq 1408(%rsp), %rbx leaq 1920(%rsp), %rbp leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$116(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$116: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r10) vmovhpd %xmm1, (%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbx) vmovhpd %xmm0, (%rbp) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r10) vmovhpd %xmm1, 8(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbx) vmovhpd %xmm0, 8(%rbp) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r10) vmovhpd %xmm1, 16(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbx) vmovhpd %xmm0, 16(%rbp) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r10) vmovhpd %xmm1, 24(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbx) vmovhpd %xmm0, 24(%rbp) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r10) vmovhpd %xmm1, 32(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbx) vmovhpd %xmm0, 32(%rbp) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r10) vmovhpd %xmm1, 40(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbx) vmovhpd %xmm0, 40(%rbp) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r10) vmovhpd %xmm1, 48(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbx) vmovhpd %xmm0, 48(%rbp) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r10) vmovhpd %xmm1, 56(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbx) vmovhpd %xmm0, 56(%rbp) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r10) vmovhpd %xmm1, 64(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbx) vmovhpd %xmm0, 64(%rbp) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r10) vmovhpd %xmm1, 72(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbx) vmovhpd %xmm0, 72(%rbp) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r10) vmovhpd %xmm1, 80(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbx) vmovhpd %xmm0, 80(%rbp) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r10) vmovhpd %xmm1, 88(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbx) vmovhpd %xmm0, 88(%rbp) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r10) vmovhpd %xmm1, 96(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbx) vmovhpd %xmm0, 96(%rbp) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r10) vmovhpd %xmm1, 104(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbx) vmovhpd %xmm0, 104(%rbp) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r10) vmovhpd %xmm1, 112(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbx) vmovhpd %xmm0, 112(%rbp) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r10) vmovhpd %xmm1, 120(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbx) vmovhpd %xmm0, 120(%rbp) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r10) vmovhpd %xmm1, 128(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbx) vmovhpd %xmm0, 128(%rbp) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r10) vmovhpd %xmm1, 136(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbx) vmovhpd %xmm0, 136(%rbp) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r10) vmovhpd %xmm1, 144(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbx) vmovhpd %xmm0, 144(%rbp) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r10) vmovhpd %xmm1, 152(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbx) vmovhpd %xmm0, 152(%rbp) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r10) vmovhpd %xmm1, 160(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbx) vmovhpd %xmm0, 160(%rbp) leaq 11424(%rsp), %rax leaq 384(%rsp), %rcx movq $0, %rdx cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$111 L__crypto_kem_enc_derand_jazz$112: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$115 movw %si, (%rax,%r9,2) incq %r9 L__crypto_kem_enc_derand_jazz$115: cmpq $256, %r9 jnb L__crypto_kem_enc_derand_jazz$113 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$113 movw %r11w, (%rax,%r9,2) incq %r9 L__crypto_kem_enc_derand_jazz$114: L__crypto_kem_enc_derand_jazz$113: cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$111: jne L__crypto_kem_enc_derand_jazz$112 leaq 11936(%rsp), %rax leaq 896(%rsp), %rcx movq $0, %rdx cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$106 L__crypto_kem_enc_derand_jazz$107: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$110 movw %si, (%rax,%rdi,2) incq %rdi L__crypto_kem_enc_derand_jazz$110: cmpq $256, %rdi jnb L__crypto_kem_enc_derand_jazz$108 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$108 movw %r11w, (%rax,%rdi,2) incq %rdi L__crypto_kem_enc_derand_jazz$109: L__crypto_kem_enc_derand_jazz$108: cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$106: jne L__crypto_kem_enc_derand_jazz$107 leaq 12448(%rsp), %rax leaq 1408(%rsp), %rcx movq $0, %rdx cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$101 L__crypto_kem_enc_derand_jazz$102: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$105 movw %si, (%rax,%r8,2) incq %r8 L__crypto_kem_enc_derand_jazz$105: cmpq $256, %r8 jnb L__crypto_kem_enc_derand_jazz$103 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$103 movw %r11w, (%rax,%r8,2) incq %r8 L__crypto_kem_enc_derand_jazz$104: L__crypto_kem_enc_derand_jazz$103: cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$101: jne L__crypto_kem_enc_derand_jazz$102 leaq 12960(%rsp), %rax leaq 1920(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$96 L__crypto_kem_enc_derand_jazz$97: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$100 movw %si, (%rax,%r13,2) incq %r13 L__crypto_kem_enc_derand_jazz$100: cmpq $256, %r13 jnb L__crypto_kem_enc_derand_jazz$98 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$98 movw %r11w, (%rax,%r13,2) incq %r13 L__crypto_kem_enc_derand_jazz$99: L__crypto_kem_enc_derand_jazz$98: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$96: jne L__crypto_kem_enc_derand_jazz$97 cmpq $255, %r9 setbe %al cmpq $255, %rdi setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl L__crypto_kem_enc_derand_jazz$94: jne L__crypto_kem_enc_derand_jazz$95 vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 384(%rsp) vmovdqu %ymm0, 896(%rsp) vmovdqu %ymm0, 1408(%rsp) vmovdqu %ymm0, 1920(%rsp) vmovdqu %ymm0, (%rsp) movb $1, 416(%rsp) movb $1, 417(%rsp) movb $1, 928(%rsp) movb $2, 929(%rsp) movb $2, 1440(%rsp) movb $0, 1441(%rsp) movb $2, 1952(%rsp) movb $1, 1953(%rsp) leaq 4480(%rsp), %rax leaq 384(%rsp), %rcx leaq 896(%rsp), %rdx leaq 1408(%rsp), %rsi leaq 1920(%rsp), %rdi leaq -8(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$93(%rip), %r8 movq %r8, (%rsp) jmp L_shake128_absorb4x_34$1 L__crypto_kem_enc_derand_jazz$93: leaq 8(%rsp), %rsp leaq 4480(%rsp), %rax leaq 384(%rsp), %rdi leaq 896(%rsp), %r8 leaq 1408(%rsp), %r9 leaq 1920(%rsp), %r10 movq %rdi, %r11 movq %r8, %rbx movq %r9, %rbp movq %r10, %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$92(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$92: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 168(%rdi), %r11 leaq 168(%r8), %rbx leaq 168(%r9), %rbp leaq 168(%r10), %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$91(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$91: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 336(%rdi), %rdi leaq 336(%r8), %r8 leaq 336(%r9), %r9 leaq 336(%r10), %r10 leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$90(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$90: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%rdi) vmovhpd %xmm1, (%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%r9) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%rdi) vmovhpd %xmm1, 8(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%r9) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%rdi) vmovhpd %xmm1, 16(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%r9) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%rdi) vmovhpd %xmm1, 24(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%r9) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%rdi) vmovhpd %xmm1, 32(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%r9) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%rdi) vmovhpd %xmm1, 40(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%r9) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%rdi) vmovhpd %xmm1, 48(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%r9) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%rdi) vmovhpd %xmm1, 56(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%r9) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%rdi) vmovhpd %xmm1, 64(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%r9) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%rdi) vmovhpd %xmm1, 72(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%r9) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%rdi) vmovhpd %xmm1, 80(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%r9) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%rdi) vmovhpd %xmm1, 88(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%r9) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%rdi) vmovhpd %xmm1, 96(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%r9) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%rdi) vmovhpd %xmm1, 104(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%r9) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%rdi) vmovhpd %xmm1, 112(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%r9) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%rdi) vmovhpd %xmm1, 120(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%r9) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%rdi) vmovhpd %xmm1, 128(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%r9) vmovhpd %xmm0, 128(%r10) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%rdi) vmovhpd %xmm1, 136(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%r9) vmovhpd %xmm0, 136(%r10) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%rdi) vmovhpd %xmm1, 144(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%r9) vmovhpd %xmm0, 144(%r10) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%rdi) vmovhpd %xmm1, 152(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%r9) vmovhpd %xmm0, 152(%r10) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%rdi) vmovhpd %xmm1, 160(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%r9) vmovhpd %xmm0, 160(%r10) leaq 13472(%rsp), %rbx leaq 384(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$89(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$89: movq %r13, %rdi leaq 13984(%rsp), %rbx leaq 896(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$88(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$88: movq %r13, %r8 leaq 14496(%rsp), %rbx leaq 1408(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$87(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$87: movq %r13, %r9 leaq 15008(%rsp), %rbx leaq 1920(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$86(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$86: cmpq $255, %rdi setbe %al cmpq $255, %r8 setbe %cl orb %cl, %al cmpq $255, %r9 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl jmp L__crypto_kem_enc_derand_jazz$63 L__crypto_kem_enc_derand_jazz$64: leaq 4480(%rsp), %rax leaq 384(%rsp), %r10 leaq 896(%rsp), %r11 leaq 1408(%rsp), %rbx leaq 1920(%rsp), %rbp leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$85(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$85: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r10) vmovhpd %xmm1, (%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbx) vmovhpd %xmm0, (%rbp) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r10) vmovhpd %xmm1, 8(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbx) vmovhpd %xmm0, 8(%rbp) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r10) vmovhpd %xmm1, 16(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbx) vmovhpd %xmm0, 16(%rbp) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r10) vmovhpd %xmm1, 24(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbx) vmovhpd %xmm0, 24(%rbp) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r10) vmovhpd %xmm1, 32(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbx) vmovhpd %xmm0, 32(%rbp) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r10) vmovhpd %xmm1, 40(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbx) vmovhpd %xmm0, 40(%rbp) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r10) vmovhpd %xmm1, 48(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbx) vmovhpd %xmm0, 48(%rbp) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r10) vmovhpd %xmm1, 56(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbx) vmovhpd %xmm0, 56(%rbp) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r10) vmovhpd %xmm1, 64(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbx) vmovhpd %xmm0, 64(%rbp) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r10) vmovhpd %xmm1, 72(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbx) vmovhpd %xmm0, 72(%rbp) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r10) vmovhpd %xmm1, 80(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbx) vmovhpd %xmm0, 80(%rbp) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r10) vmovhpd %xmm1, 88(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbx) vmovhpd %xmm0, 88(%rbp) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r10) vmovhpd %xmm1, 96(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbx) vmovhpd %xmm0, 96(%rbp) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r10) vmovhpd %xmm1, 104(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbx) vmovhpd %xmm0, 104(%rbp) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r10) vmovhpd %xmm1, 112(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbx) vmovhpd %xmm0, 112(%rbp) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r10) vmovhpd %xmm1, 120(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbx) vmovhpd %xmm0, 120(%rbp) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r10) vmovhpd %xmm1, 128(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbx) vmovhpd %xmm0, 128(%rbp) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r10) vmovhpd %xmm1, 136(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbx) vmovhpd %xmm0, 136(%rbp) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r10) vmovhpd %xmm1, 144(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbx) vmovhpd %xmm0, 144(%rbp) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r10) vmovhpd %xmm1, 152(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbx) vmovhpd %xmm0, 152(%rbp) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r10) vmovhpd %xmm1, 160(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbx) vmovhpd %xmm0, 160(%rbp) leaq 13472(%rsp), %rax leaq 384(%rsp), %rcx movq $0, %rdx cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$80 L__crypto_kem_enc_derand_jazz$81: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$84 movw %si, (%rax,%rdi,2) incq %rdi L__crypto_kem_enc_derand_jazz$84: cmpq $256, %rdi jnb L__crypto_kem_enc_derand_jazz$82 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$82 movw %r11w, (%rax,%rdi,2) incq %rdi L__crypto_kem_enc_derand_jazz$83: L__crypto_kem_enc_derand_jazz$82: cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$80: jne L__crypto_kem_enc_derand_jazz$81 leaq 13984(%rsp), %rax leaq 896(%rsp), %rcx movq $0, %rdx cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$75 L__crypto_kem_enc_derand_jazz$76: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$79 movw %si, (%rax,%r8,2) incq %r8 L__crypto_kem_enc_derand_jazz$79: cmpq $256, %r8 jnb L__crypto_kem_enc_derand_jazz$77 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$77 movw %r11w, (%rax,%r8,2) incq %r8 L__crypto_kem_enc_derand_jazz$78: L__crypto_kem_enc_derand_jazz$77: cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$75: jne L__crypto_kem_enc_derand_jazz$76 leaq 14496(%rsp), %rax leaq 1408(%rsp), %rcx movq $0, %rdx cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$70 L__crypto_kem_enc_derand_jazz$71: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$74 movw %si, (%rax,%r9,2) incq %r9 L__crypto_kem_enc_derand_jazz$74: cmpq $256, %r9 jnb L__crypto_kem_enc_derand_jazz$72 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$72 movw %r11w, (%rax,%r9,2) incq %r9 L__crypto_kem_enc_derand_jazz$73: L__crypto_kem_enc_derand_jazz$72: cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$70: jne L__crypto_kem_enc_derand_jazz$71 leaq 15008(%rsp), %rax leaq 1920(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$65 L__crypto_kem_enc_derand_jazz$66: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$69 movw %si, (%rax,%r13,2) incq %r13 L__crypto_kem_enc_derand_jazz$69: cmpq $256, %r13 jnb L__crypto_kem_enc_derand_jazz$67 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$67 movw %r11w, (%rax,%r13,2) incq %r13 L__crypto_kem_enc_derand_jazz$68: L__crypto_kem_enc_derand_jazz$67: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$65: jne L__crypto_kem_enc_derand_jazz$66 cmpq $255, %rdi setbe %al cmpq $255, %r8 setbe %cl orb %cl, %al cmpq $255, %r9 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl L__crypto_kem_enc_derand_jazz$63: jne L__crypto_kem_enc_derand_jazz$64 vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 384(%rsp) movb $2, 416(%rsp) movb $2, 417(%rsp) leaq 384(%rsp), %rax vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm0, 224(%rsp) vmovdqu %ymm0, 256(%rsp) vmovdqu %ymm0, 288(%rsp) vmovdqu %ymm0, 320(%rsp) vmovdqu %ymm0, 352(%rsp) vpbroadcastq (%rax), %ymm5 movq 8(%rax), %rcx movq glob_data + 6208(%rip), %rdx movq %rcx, 160(%rsp,%rdx,8) movq 16(%rax), %rcx movq glob_data + 6216(%rip), %rdx movq %rcx, 160(%rsp,%rdx,8) movq 24(%rax), %rcx movq glob_data + 6224(%rip), %rdx movq %rcx, 160(%rsp,%rdx,8) movb 32(%rax), %cl movq glob_data + 6232(%rip), %rdx shlq $3, %rdx movb %cl, 160(%rsp,%rdx) movb 33(%rax), %al incq %rdx movb %al, 160(%rsp,%rdx) incq %rdx movb $31, 160(%rsp,%rdx) movq glob_data + 6360(%rip), %rax shlq $3, %rax movq $167, %rcx andq $7, %rcx addq %rcx, %rax movb $-128, 160(%rsp,%rax) vmovdqu 192(%rsp), %ymm0 vmovdqu 224(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 288(%rsp), %ymm6 vmovdqu 320(%rsp), %ymm3 vmovdqu 352(%rsp), %ymm4 leaq 384(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_enc_derand_jazz$62: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne L__crypto_kem_enc_derand_jazz$62 vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 552(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_enc_derand_jazz$61: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne L__crypto_kem_enc_derand_jazz$61 vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 720(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_enc_derand_jazz$60: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne L__crypto_kem_enc_derand_jazz$60 vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) leaq 15520(%rsp), %rbx leaq 384(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$59(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$59: cmpq $255, %r13 setbe %al vmovdqu 160(%rsp), %ymm6 vmovdqu 192(%rsp), %ymm0 vmovdqu 224(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 288(%rsp), %ymm3 vmovdqu 320(%rsp), %ymm4 vmovdqu 352(%rsp), %ymm5 jmp L__crypto_kem_enc_derand_jazz$51 L__crypto_kem_enc_derand_jazz$52: leaq 384(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_enc_derand_jazz$58: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne L__crypto_kem_enc_derand_jazz$58 vmovdqu %ymm6, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm3, 288(%rsp) vmovdqu %ymm4, 320(%rsp) vmovdqu %ymm5, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 15520(%rsp), %rax leaq 384(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %dil testb %dil, %sil jmp L__crypto_kem_enc_derand_jazz$53 L__crypto_kem_enc_derand_jazz$54: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw (%rcx,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$57 movw %si, (%rax,%r13,2) incq %r13 L__crypto_kem_enc_derand_jazz$57: cmpq $256, %r13 jnb L__crypto_kem_enc_derand_jazz$55 cmpw $3329, %r8w jnb L__crypto_kem_enc_derand_jazz$55 movw %r8w, (%rax,%r13,2) incq %r13 L__crypto_kem_enc_derand_jazz$56: L__crypto_kem_enc_derand_jazz$55: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %dil testb %dil, %sil L__crypto_kem_enc_derand_jazz$53: jne L__crypto_kem_enc_derand_jazz$54 cmpq $255, %r13 setbe %al L__crypto_kem_enc_derand_jazz$51: cmpb $0, %al jne L__crypto_kem_enc_derand_jazz$52 leaq 11424(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$50(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$50: leaq 11936(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$49(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$49: leaq 12448(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$48(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$48: leaq 12960(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$47(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$47: leaq 13472(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$46(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$46: leaq 13984(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$45(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$45: leaq 14496(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$44(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$44: leaq 15008(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$43(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$43: leaq 15520(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$42(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$42: movq 16032(%rsp), %r10 movb $0, %cl leaq 6816(%rsp), %rax leaq 7328(%rsp), %rdi leaq 7840(%rsp), %r8 leaq 8352(%rsp), %r9 leaq -1472(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$41(%rip), %rdx movq %rdx, 1464(%rsp) jmp L_poly_getnoise_eta1_4x$1 L__crypto_kem_enc_derand_jazz$41: leaq 1472(%rsp), %rsp movb $4, %cl leaq 8864(%rsp), %rax leaq 9376(%rsp), %rdi leaq 2944(%rsp), %r8 leaq 9888(%rsp), %r9 leaq -1472(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$40(%rip), %rdx movq %rdx, 1464(%rsp) jmp L_poly_getnoise_eta1_4x$1 L__crypto_kem_enc_derand_jazz$40: leaq 1472(%rsp), %rsp leaq 6816(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$39(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_enc_derand_jazz$39: leaq 7328(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$38(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_enc_derand_jazz$38: leaq 7840(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$37(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_enc_derand_jazz$37: leaq 9888(%rsp), %rcx leaq 11424(%rsp), %rsi leaq 6816(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$36(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$36: leaq 3456(%rsp), %rcx leaq 11936(%rsp), %rsi leaq 7328(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$35(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$35: leaq 9888(%rsp), %rcx leaq 3456(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$34(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$34: leaq 3456(%rsp), %rcx leaq 12448(%rsp), %rsi leaq 7840(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$33(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$33: leaq 9888(%rsp), %rcx leaq 3456(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$32(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$32: leaq 10400(%rsp), %rcx leaq 12960(%rsp), %rsi leaq 6816(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$31(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$31: leaq 3456(%rsp), %rcx leaq 13472(%rsp), %rsi leaq 7328(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$30(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$30: leaq 10400(%rsp), %rcx leaq 3456(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$29(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$29: leaq 3456(%rsp), %rcx leaq 13984(%rsp), %rsi leaq 7840(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$28(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$28: leaq 10400(%rsp), %rcx leaq 3456(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$27(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$27: leaq 10912(%rsp), %rcx leaq 14496(%rsp), %rsi leaq 6816(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$26(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$26: leaq 3456(%rsp), %rcx leaq 15008(%rsp), %rsi leaq 7328(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$25(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$25: leaq 10912(%rsp), %rcx leaq 3456(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$24(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$24: leaq 3456(%rsp), %rcx leaq 15520(%rsp), %rsi leaq 7840(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$23(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$23: leaq 10912(%rsp), %rcx leaq 3456(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$22(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$22: leaq 3456(%rsp), %rcx leaq 5280(%rsp), %rsi leaq 6816(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$21(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$21: leaq 3968(%rsp), %rcx leaq 5792(%rsp), %rsi leaq 7328(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$20(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$20: leaq 3456(%rsp), %rcx leaq 3968(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$19(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$19: leaq 3968(%rsp), %rcx leaq 6304(%rsp), %rsi leaq 7840(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$18(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$18: leaq 3456(%rsp), %rcx leaq 3968(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$17(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$17: leaq 9888(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$16(%rip), %rdi jmp L_poly_invntt$1 L__crypto_kem_enc_derand_jazz$16: leaq 10400(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$15(%rip), %rdi jmp L_poly_invntt$1 L__crypto_kem_enc_derand_jazz$15: leaq 10912(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$14(%rip), %rdi jmp L_poly_invntt$1 L__crypto_kem_enc_derand_jazz$14: leaq 3456(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$13(%rip), %rdi jmp L_poly_invntt$1 L__crypto_kem_enc_derand_jazz$13: leaq 9888(%rsp), %rcx leaq 8352(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$12(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$12: leaq 10400(%rsp), %rcx leaq 8864(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$11(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$11: leaq 10912(%rsp), %rcx leaq 9376(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$10(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$10: leaq 3456(%rsp), %rcx leaq 2944(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$9(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$9: leaq 3456(%rsp), %rcx leaq 2432(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$8(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$8: leaq 9888(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 10400(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 10912(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 3456(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) movq 16040(%rsp), %rax leaq 9888(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$7(%rip), %r8 jmp L_poly_csubq$1 L__crypto_kem_enc_derand_jazz$7: leaq 10400(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$6(%rip), %r8 jmp L_poly_csubq$1 L__crypto_kem_enc_derand_jazz$6: leaq 10912(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$5(%rip), %r8 jmp L_poly_csubq$1 L__crypto_kem_enc_derand_jazz$5: leaq glob_data + 384(%rip), %rcx vmovdqu (%rcx), %ymm0 vpsllw $3, %ymm0, %ymm1 vpbroadcastw glob_data + 6422(%rip), %ymm2 vpbroadcastw glob_data + 6420(%rip), %ymm3 vpbroadcastw glob_data + 6418(%rip), %ymm4 vpbroadcastq glob_data + 6184(%rip), %ymm5 vpbroadcastq glob_data + 6176(%rip), %ymm6 vmovdqu glob_data + 32(%rip), %ymm7 vmovdqu 9888(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, (%rax) vpextrd $0, %xmm8, 16(%rax) vmovdqu 9920(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 20(%rax) vpextrd $0, %xmm8, 36(%rax) vmovdqu 9952(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 40(%rax) vpextrd $0, %xmm8, 56(%rax) vmovdqu 9984(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 60(%rax) vpextrd $0, %xmm8, 76(%rax) vmovdqu 10016(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 80(%rax) vpextrd $0, %xmm8, 96(%rax) vmovdqu 10048(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 100(%rax) vpextrd $0, %xmm8, 116(%rax) vmovdqu 10080(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 120(%rax) vpextrd $0, %xmm8, 136(%rax) vmovdqu 10112(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 140(%rax) vpextrd $0, %xmm8, 156(%rax) vmovdqu 10144(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 160(%rax) vpextrd $0, %xmm8, 176(%rax) vmovdqu 10176(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 180(%rax) vpextrd $0, %xmm8, 196(%rax) vmovdqu 10208(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 200(%rax) vpextrd $0, %xmm8, 216(%rax) vmovdqu 10240(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 220(%rax) vpextrd $0, %xmm8, 236(%rax) vmovdqu 10272(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 240(%rax) vpextrd $0, %xmm8, 256(%rax) vmovdqu 10304(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 260(%rax) vpextrd $0, %xmm8, 276(%rax) vmovdqu 10336(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 280(%rax) vpextrd $0, %xmm8, 296(%rax) vmovdqu 10368(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 300(%rax) vpextrd $0, %xmm8, 316(%rax) vmovdqu 10400(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 320(%rax) vpextrd $0, %xmm8, 336(%rax) vmovdqu 10432(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 340(%rax) vpextrd $0, %xmm8, 356(%rax) vmovdqu 10464(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 360(%rax) vpextrd $0, %xmm8, 376(%rax) vmovdqu 10496(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 380(%rax) vpextrd $0, %xmm8, 396(%rax) vmovdqu 10528(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 400(%rax) vpextrd $0, %xmm8, 416(%rax) vmovdqu 10560(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 420(%rax) vpextrd $0, %xmm8, 436(%rax) vmovdqu 10592(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 440(%rax) vpextrd $0, %xmm8, 456(%rax) vmovdqu 10624(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 460(%rax) vpextrd $0, %xmm8, 476(%rax) vmovdqu 10656(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 480(%rax) vpextrd $0, %xmm8, 496(%rax) vmovdqu 10688(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 500(%rax) vpextrd $0, %xmm8, 516(%rax) vmovdqu 10720(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 520(%rax) vpextrd $0, %xmm8, 536(%rax) vmovdqu 10752(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 540(%rax) vpextrd $0, %xmm8, 556(%rax) vmovdqu 10784(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 560(%rax) vpextrd $0, %xmm8, 576(%rax) vmovdqu 10816(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 580(%rax) vpextrd $0, %xmm8, 596(%rax) vmovdqu 10848(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 600(%rax) vpextrd $0, %xmm8, 616(%rax) vmovdqu 10880(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 620(%rax) vpextrd $0, %xmm8, 636(%rax) vmovdqu 10912(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 640(%rax) vpextrd $0, %xmm8, 656(%rax) vmovdqu 10944(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 660(%rax) vpextrd $0, %xmm8, 676(%rax) vmovdqu 10976(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 680(%rax) vpextrd $0, %xmm8, 696(%rax) vmovdqu 11008(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 700(%rax) vpextrd $0, %xmm8, 716(%rax) vmovdqu 11040(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 720(%rax) vpextrd $0, %xmm8, 736(%rax) vmovdqu 11072(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 740(%rax) vpextrd $0, %xmm8, 756(%rax) vmovdqu 11104(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 760(%rax) vpextrd $0, %xmm8, 776(%rax) vmovdqu 11136(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 780(%rax) vpextrd $0, %xmm8, 796(%rax) vmovdqu 11168(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 800(%rax) vpextrd $0, %xmm8, 816(%rax) vmovdqu 11200(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 820(%rax) vpextrd $0, %xmm8, 836(%rax) vmovdqu 11232(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 840(%rax) vpextrd $0, %xmm8, 856(%rax) vmovdqu 11264(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 860(%rax) vpextrd $0, %xmm8, 876(%rax) vmovdqu 11296(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 880(%rax) vpextrd $0, %xmm8, 896(%rax) vmovdqu 11328(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 900(%rax) vpextrd $0, %xmm8, 916(%rax) vmovdqu 11360(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 920(%rax) vpextrd $0, %xmm8, 936(%rax) vmovdqu 11392(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm1 vpaddw %ymm2, %ymm8, %ymm2 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm0 vpsubw %ymm2, %ymm1, %ymm2 vpandn %ymm2, %ymm1, %ymm1 vpsrlw $15, %ymm1, %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vpmulhrsw %ymm3, %ymm0, %ymm0 vpand %ymm4, %ymm0, %ymm0 vpmaddwd %ymm5, %ymm0, %ymm0 vpsllvd %ymm6, %ymm0, %ymm0 vpsrlq $12, %ymm0, %ymm0 vpshufb %ymm7, %ymm0, %ymm0 vmovdqu %xmm0, %xmm1 vextracti128 $1, %ymm0, %xmm0 vpblendw $-32, %xmm0, %xmm1, %xmm1 vmovdqu %xmm1, 940(%rax) vpextrd $0, %xmm0, 956(%rax) addq $960, %rax leaq 3456(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$4(%rip), %rsi jmp L_poly_compress$1 L__crypto_kem_enc_derand_jazz$4: movq 16040(%rsp), %r8 movq $1088, %rdi leaq 128(%rsp), %rax leaq -256(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$3(%rip), %rcx movq %rcx, 224(%rsp) jmp L_sha3_256$1 L__crypto_kem_enc_derand_jazz$3: leaq 256(%rsp), %rsp movq 16048(%rsp), %rdx movq $32, %rcx leaq 96(%rsp), %rax leaq -256(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$2(%rip), %rsi movq %rsi, 224(%rsp) jmp L_shake256_64$1 L__crypto_kem_enc_derand_jazz$2: leaq 256(%rsp), %rsp jmp *16056(%rsp) L__crypto_kem_keypair_derand_jazz$1: movq %rax, 12896(%rsp) movq %rbp, 12904(%rsp) movq %rbx, 12912(%rsp) movq %rax, %rcx movq %rbp, 12920(%rsp) movq %rbx, 12928(%rsp) leaq 12936(%rsp), %rax leaq -256(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$121(%rip), %rdx movq %rdx, 224(%rsp) jmp L_sha3_512_32$1 L__crypto_kem_keypair_derand_jazz$121: leaq 256(%rsp), %rsp movq 12936(%rsp), %rax movq %rax, (%rsp) movq 12968(%rsp), %rax movq %rax, 32(%rsp) movq 12944(%rsp), %rax movq %rax, 8(%rsp) movq 12976(%rsp), %rax movq %rax, 40(%rsp) movq 12952(%rsp), %rax movq %rax, 16(%rsp) movq 12984(%rsp), %rax movq %rax, 48(%rsp) movq 12960(%rsp), %rax movq %rax, 24(%rsp) movq 12992(%rsp), %rax movq %rax, 56(%rsp) vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 320(%rsp) vmovdqu %ymm0, 832(%rsp) vmovdqu %ymm0, 1344(%rsp) vmovdqu %ymm0, 1856(%rsp) vmovdqu %ymm0, 64(%rsp) movb $0, 352(%rsp) movb $0, 353(%rsp) movb $1, 864(%rsp) movb $0, 865(%rsp) movb $2, 1376(%rsp) movb $0, 1377(%rsp) movb $0, 1888(%rsp) movb $1, 1889(%rsp) leaq 2880(%rsp), %rax leaq 320(%rsp), %rcx leaq 832(%rsp), %rdx leaq 1344(%rsp), %rsi leaq 1856(%rsp), %rdi leaq -8(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$120(%rip), %r8 movq %r8, (%rsp) jmp L_shake128_absorb4x_34$1 L__crypto_kem_keypair_derand_jazz$120: leaq 8(%rsp), %rsp leaq 2880(%rsp), %rax leaq 320(%rsp), %rdi leaq 832(%rsp), %r8 leaq 1344(%rsp), %r9 leaq 1856(%rsp), %r10 movq %rdi, %r11 movq %r8, %rbx movq %r9, %rbp movq %r10, %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$119(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$119: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 168(%rdi), %r11 leaq 168(%r8), %rbx leaq 168(%r9), %rbp leaq 168(%r10), %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$118(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$118: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 336(%rdi), %rdi leaq 336(%r8), %r8 leaq 336(%r9), %r9 leaq 336(%r10), %r10 leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$117(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$117: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%rdi) vmovhpd %xmm1, (%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%r9) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%rdi) vmovhpd %xmm1, 8(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%r9) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%rdi) vmovhpd %xmm1, 16(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%r9) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%rdi) vmovhpd %xmm1, 24(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%r9) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%rdi) vmovhpd %xmm1, 32(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%r9) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%rdi) vmovhpd %xmm1, 40(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%r9) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%rdi) vmovhpd %xmm1, 48(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%r9) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%rdi) vmovhpd %xmm1, 56(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%r9) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%rdi) vmovhpd %xmm1, 64(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%r9) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%rdi) vmovhpd %xmm1, 72(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%r9) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%rdi) vmovhpd %xmm1, 80(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%r9) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%rdi) vmovhpd %xmm1, 88(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%r9) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%rdi) vmovhpd %xmm1, 96(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%r9) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%rdi) vmovhpd %xmm1, 104(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%r9) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%rdi) vmovhpd %xmm1, 112(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%r9) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%rdi) vmovhpd %xmm1, 120(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%r9) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%rdi) vmovhpd %xmm1, 128(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%r9) vmovhpd %xmm0, 128(%r10) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%rdi) vmovhpd %xmm1, 136(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%r9) vmovhpd %xmm0, 136(%r10) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%rdi) vmovhpd %xmm1, 144(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%r9) vmovhpd %xmm0, 144(%r10) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%rdi) vmovhpd %xmm1, 152(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%r9) vmovhpd %xmm0, 152(%r10) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%rdi) vmovhpd %xmm1, 160(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%r9) vmovhpd %xmm0, 160(%r10) leaq 8288(%rsp), %rbx leaq 320(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$116(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$116: movq %r13, %rdi leaq 8800(%rsp), %rbx leaq 832(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$115(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$115: movq %r13, %r9 leaq 9312(%rsp), %rbx leaq 1344(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$114(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$114: movq %r13, %r8 leaq 9824(%rsp), %rbx leaq 1856(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$113(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$113: cmpq $255, %rdi setbe %al cmpq $255, %r9 setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl jmp L__crypto_kem_keypair_derand_jazz$90 L__crypto_kem_keypair_derand_jazz$91: leaq 2880(%rsp), %rax leaq 320(%rsp), %r10 leaq 832(%rsp), %r11 leaq 1344(%rsp), %rbx leaq 1856(%rsp), %rbp leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$112(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$112: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r10) vmovhpd %xmm1, (%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbx) vmovhpd %xmm0, (%rbp) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r10) vmovhpd %xmm1, 8(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbx) vmovhpd %xmm0, 8(%rbp) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r10) vmovhpd %xmm1, 16(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbx) vmovhpd %xmm0, 16(%rbp) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r10) vmovhpd %xmm1, 24(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbx) vmovhpd %xmm0, 24(%rbp) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r10) vmovhpd %xmm1, 32(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbx) vmovhpd %xmm0, 32(%rbp) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r10) vmovhpd %xmm1, 40(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbx) vmovhpd %xmm0, 40(%rbp) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r10) vmovhpd %xmm1, 48(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbx) vmovhpd %xmm0, 48(%rbp) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r10) vmovhpd %xmm1, 56(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbx) vmovhpd %xmm0, 56(%rbp) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r10) vmovhpd %xmm1, 64(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbx) vmovhpd %xmm0, 64(%rbp) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r10) vmovhpd %xmm1, 72(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbx) vmovhpd %xmm0, 72(%rbp) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r10) vmovhpd %xmm1, 80(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbx) vmovhpd %xmm0, 80(%rbp) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r10) vmovhpd %xmm1, 88(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbx) vmovhpd %xmm0, 88(%rbp) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r10) vmovhpd %xmm1, 96(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbx) vmovhpd %xmm0, 96(%rbp) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r10) vmovhpd %xmm1, 104(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbx) vmovhpd %xmm0, 104(%rbp) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r10) vmovhpd %xmm1, 112(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbx) vmovhpd %xmm0, 112(%rbp) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r10) vmovhpd %xmm1, 120(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbx) vmovhpd %xmm0, 120(%rbp) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r10) vmovhpd %xmm1, 128(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbx) vmovhpd %xmm0, 128(%rbp) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r10) vmovhpd %xmm1, 136(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbx) vmovhpd %xmm0, 136(%rbp) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r10) vmovhpd %xmm1, 144(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbx) vmovhpd %xmm0, 144(%rbp) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r10) vmovhpd %xmm1, 152(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbx) vmovhpd %xmm0, 152(%rbp) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r10) vmovhpd %xmm1, 160(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbx) vmovhpd %xmm0, 160(%rbp) leaq 8288(%rsp), %rax leaq 320(%rsp), %rcx movq $0, %rdx cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$107 L__crypto_kem_keypair_derand_jazz$108: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$111 movw %si, (%rax,%rdi,2) incq %rdi L__crypto_kem_keypair_derand_jazz$111: cmpq $256, %rdi jnb L__crypto_kem_keypair_derand_jazz$109 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$109 movw %r11w, (%rax,%rdi,2) incq %rdi L__crypto_kem_keypair_derand_jazz$110: L__crypto_kem_keypair_derand_jazz$109: cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$107: jne L__crypto_kem_keypair_derand_jazz$108 leaq 8800(%rsp), %rax leaq 832(%rsp), %rcx movq $0, %rdx cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$102 L__crypto_kem_keypair_derand_jazz$103: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$106 movw %si, (%rax,%r9,2) incq %r9 L__crypto_kem_keypair_derand_jazz$106: cmpq $256, %r9 jnb L__crypto_kem_keypair_derand_jazz$104 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$104 movw %r11w, (%rax,%r9,2) incq %r9 L__crypto_kem_keypair_derand_jazz$105: L__crypto_kem_keypair_derand_jazz$104: cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$102: jne L__crypto_kem_keypair_derand_jazz$103 leaq 9312(%rsp), %rax leaq 1344(%rsp), %rcx movq $0, %rdx cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$97 L__crypto_kem_keypair_derand_jazz$98: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$101 movw %si, (%rax,%r8,2) incq %r8 L__crypto_kem_keypair_derand_jazz$101: cmpq $256, %r8 jnb L__crypto_kem_keypair_derand_jazz$99 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$99 movw %r11w, (%rax,%r8,2) incq %r8 L__crypto_kem_keypair_derand_jazz$100: L__crypto_kem_keypair_derand_jazz$99: cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$97: jne L__crypto_kem_keypair_derand_jazz$98 leaq 9824(%rsp), %rax leaq 1856(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$92 L__crypto_kem_keypair_derand_jazz$93: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$96 movw %si, (%rax,%r13,2) incq %r13 L__crypto_kem_keypair_derand_jazz$96: cmpq $256, %r13 jnb L__crypto_kem_keypair_derand_jazz$94 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$94 movw %r11w, (%rax,%r13,2) incq %r13 L__crypto_kem_keypair_derand_jazz$95: L__crypto_kem_keypair_derand_jazz$94: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$92: jne L__crypto_kem_keypair_derand_jazz$93 cmpq $255, %rdi setbe %al cmpq $255, %r9 setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl L__crypto_kem_keypair_derand_jazz$90: jne L__crypto_kem_keypair_derand_jazz$91 vmovdqu 64(%rsp), %ymm0 vmovdqu %ymm0, 320(%rsp) vmovdqu %ymm0, 832(%rsp) vmovdqu %ymm0, 1344(%rsp) vmovdqu %ymm0, 1856(%rsp) vmovdqu %ymm0, 64(%rsp) movb $1, 352(%rsp) movb $1, 353(%rsp) movb $2, 864(%rsp) movb $1, 865(%rsp) movb $0, 1376(%rsp) movb $2, 1377(%rsp) movb $1, 1888(%rsp) movb $2, 1889(%rsp) leaq 2880(%rsp), %rax leaq 320(%rsp), %rcx leaq 832(%rsp), %rdx leaq 1344(%rsp), %rsi leaq 1856(%rsp), %rdi leaq -8(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$89(%rip), %r8 movq %r8, (%rsp) jmp L_shake128_absorb4x_34$1 L__crypto_kem_keypair_derand_jazz$89: leaq 8(%rsp), %rsp leaq 2880(%rsp), %rax leaq 320(%rsp), %rdi leaq 832(%rsp), %r8 leaq 1344(%rsp), %r9 leaq 1856(%rsp), %r10 movq %rdi, %r11 movq %r8, %rbx movq %r9, %rbp movq %r10, %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$88(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$88: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 168(%rdi), %r11 leaq 168(%r8), %rbx leaq 168(%r9), %rbp leaq 168(%r10), %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$87(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$87: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 336(%rdi), %rdi leaq 336(%r8), %r8 leaq 336(%r9), %r9 leaq 336(%r10), %r10 leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$86(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$86: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%rdi) vmovhpd %xmm1, (%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%r9) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%rdi) vmovhpd %xmm1, 8(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%r9) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%rdi) vmovhpd %xmm1, 16(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%r9) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%rdi) vmovhpd %xmm1, 24(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%r9) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%rdi) vmovhpd %xmm1, 32(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%r9) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%rdi) vmovhpd %xmm1, 40(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%r9) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%rdi) vmovhpd %xmm1, 48(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%r9) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%rdi) vmovhpd %xmm1, 56(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%r9) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%rdi) vmovhpd %xmm1, 64(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%r9) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%rdi) vmovhpd %xmm1, 72(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%r9) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%rdi) vmovhpd %xmm1, 80(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%r9) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%rdi) vmovhpd %xmm1, 88(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%r9) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%rdi) vmovhpd %xmm1, 96(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%r9) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%rdi) vmovhpd %xmm1, 104(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%r9) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%rdi) vmovhpd %xmm1, 112(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%r9) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%rdi) vmovhpd %xmm1, 120(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%r9) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%rdi) vmovhpd %xmm1, 128(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%r9) vmovhpd %xmm0, 128(%r10) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%rdi) vmovhpd %xmm1, 136(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%r9) vmovhpd %xmm0, 136(%r10) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%rdi) vmovhpd %xmm1, 144(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%r9) vmovhpd %xmm0, 144(%r10) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%rdi) vmovhpd %xmm1, 152(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%r9) vmovhpd %xmm0, 152(%r10) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%rdi) vmovhpd %xmm1, 160(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%r9) vmovhpd %xmm0, 160(%r10) leaq 10336(%rsp), %rbx leaq 320(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$85(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$85: movq %r13, %r9 leaq 10848(%rsp), %rbx leaq 832(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$84(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$84: movq %r13, %rdi leaq 11360(%rsp), %rbx leaq 1344(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$83(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$83: movq %r13, %r8 leaq 11872(%rsp), %rbx leaq 1856(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$82(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$82: cmpq $255, %r9 setbe %al cmpq $255, %rdi setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl jmp L__crypto_kem_keypair_derand_jazz$59 L__crypto_kem_keypair_derand_jazz$60: leaq 2880(%rsp), %rax leaq 320(%rsp), %r10 leaq 832(%rsp), %r11 leaq 1344(%rsp), %rbx leaq 1856(%rsp), %rbp leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$81(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$81: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r10) vmovhpd %xmm1, (%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbx) vmovhpd %xmm0, (%rbp) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r10) vmovhpd %xmm1, 8(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbx) vmovhpd %xmm0, 8(%rbp) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r10) vmovhpd %xmm1, 16(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbx) vmovhpd %xmm0, 16(%rbp) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r10) vmovhpd %xmm1, 24(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbx) vmovhpd %xmm0, 24(%rbp) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r10) vmovhpd %xmm1, 32(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbx) vmovhpd %xmm0, 32(%rbp) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r10) vmovhpd %xmm1, 40(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbx) vmovhpd %xmm0, 40(%rbp) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r10) vmovhpd %xmm1, 48(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbx) vmovhpd %xmm0, 48(%rbp) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r10) vmovhpd %xmm1, 56(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbx) vmovhpd %xmm0, 56(%rbp) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r10) vmovhpd %xmm1, 64(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbx) vmovhpd %xmm0, 64(%rbp) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r10) vmovhpd %xmm1, 72(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbx) vmovhpd %xmm0, 72(%rbp) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r10) vmovhpd %xmm1, 80(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbx) vmovhpd %xmm0, 80(%rbp) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r10) vmovhpd %xmm1, 88(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbx) vmovhpd %xmm0, 88(%rbp) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r10) vmovhpd %xmm1, 96(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbx) vmovhpd %xmm0, 96(%rbp) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r10) vmovhpd %xmm1, 104(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbx) vmovhpd %xmm0, 104(%rbp) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r10) vmovhpd %xmm1, 112(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbx) vmovhpd %xmm0, 112(%rbp) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r10) vmovhpd %xmm1, 120(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbx) vmovhpd %xmm0, 120(%rbp) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r10) vmovhpd %xmm1, 128(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbx) vmovhpd %xmm0, 128(%rbp) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r10) vmovhpd %xmm1, 136(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbx) vmovhpd %xmm0, 136(%rbp) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r10) vmovhpd %xmm1, 144(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbx) vmovhpd %xmm0, 144(%rbp) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r10) vmovhpd %xmm1, 152(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbx) vmovhpd %xmm0, 152(%rbp) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r10) vmovhpd %xmm1, 160(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbx) vmovhpd %xmm0, 160(%rbp) leaq 10336(%rsp), %rax leaq 320(%rsp), %rcx movq $0, %rdx cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$76 L__crypto_kem_keypair_derand_jazz$77: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$80 movw %si, (%rax,%r9,2) incq %r9 L__crypto_kem_keypair_derand_jazz$80: cmpq $256, %r9 jnb L__crypto_kem_keypair_derand_jazz$78 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$78 movw %r11w, (%rax,%r9,2) incq %r9 L__crypto_kem_keypair_derand_jazz$79: L__crypto_kem_keypair_derand_jazz$78: cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$76: jne L__crypto_kem_keypair_derand_jazz$77 leaq 10848(%rsp), %rax leaq 832(%rsp), %rcx movq $0, %rdx cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$71 L__crypto_kem_keypair_derand_jazz$72: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$75 movw %si, (%rax,%rdi,2) incq %rdi L__crypto_kem_keypair_derand_jazz$75: cmpq $256, %rdi jnb L__crypto_kem_keypair_derand_jazz$73 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$73 movw %r11w, (%rax,%rdi,2) incq %rdi L__crypto_kem_keypair_derand_jazz$74: L__crypto_kem_keypair_derand_jazz$73: cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$71: jne L__crypto_kem_keypair_derand_jazz$72 leaq 11360(%rsp), %rax leaq 1344(%rsp), %rcx movq $0, %rdx cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$66 L__crypto_kem_keypair_derand_jazz$67: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$70 movw %si, (%rax,%r8,2) incq %r8 L__crypto_kem_keypair_derand_jazz$70: cmpq $256, %r8 jnb L__crypto_kem_keypair_derand_jazz$68 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$68 movw %r11w, (%rax,%r8,2) incq %r8 L__crypto_kem_keypair_derand_jazz$69: L__crypto_kem_keypair_derand_jazz$68: cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$66: jne L__crypto_kem_keypair_derand_jazz$67 leaq 11872(%rsp), %rax leaq 1856(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$61 L__crypto_kem_keypair_derand_jazz$62: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$65 movw %si, (%rax,%r13,2) incq %r13 L__crypto_kem_keypair_derand_jazz$65: cmpq $256, %r13 jnb L__crypto_kem_keypair_derand_jazz$63 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$63 movw %r11w, (%rax,%r13,2) incq %r13 L__crypto_kem_keypair_derand_jazz$64: L__crypto_kem_keypair_derand_jazz$63: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$61: jne L__crypto_kem_keypair_derand_jazz$62 cmpq $255, %r9 setbe %al cmpq $255, %rdi setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl L__crypto_kem_keypair_derand_jazz$59: jne L__crypto_kem_keypair_derand_jazz$60 vmovdqu 64(%rsp), %ymm0 vmovdqu %ymm0, 320(%rsp) movb $2, 352(%rsp) movb $2, 353(%rsp) leaq 320(%rsp), %rax vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm0, 224(%rsp) vmovdqu %ymm0, 256(%rsp) vmovdqu %ymm0, 288(%rsp) vpbroadcastq (%rax), %ymm5 movq 8(%rax), %rcx movq glob_data + 6208(%rip), %rdx movq %rcx, 96(%rsp,%rdx,8) movq 16(%rax), %rcx movq glob_data + 6216(%rip), %rdx movq %rcx, 96(%rsp,%rdx,8) movq 24(%rax), %rcx movq glob_data + 6224(%rip), %rdx movq %rcx, 96(%rsp,%rdx,8) movb 32(%rax), %cl movq glob_data + 6232(%rip), %rdx shlq $3, %rdx movb %cl, 96(%rsp,%rdx) movb 33(%rax), %al incq %rdx movb %al, 96(%rsp,%rdx) incq %rdx movb $31, 96(%rsp,%rdx) movq glob_data + 6360(%rip), %rax shlq $3, %rax movq $167, %rcx andq $7, %rcx addq %rcx, %rax movb $-128, 96(%rsp,%rax) vmovdqu 128(%rsp), %ymm0 vmovdqu 160(%rsp), %ymm1 vmovdqu 192(%rsp), %ymm2 vmovdqu 224(%rsp), %ymm6 vmovdqu 256(%rsp), %ymm3 vmovdqu 288(%rsp), %ymm4 leaq 320(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_keypair_derand_jazz$58: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne L__crypto_kem_keypair_derand_jazz$58 vmovdqu %ymm5, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) vmovdqu %ymm6, 224(%rsp) vmovdqu %ymm3, 256(%rsp) vmovdqu %ymm4, 288(%rsp) movq glob_data + 6200(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 488(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_keypair_derand_jazz$57: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne L__crypto_kem_keypair_derand_jazz$57 vmovdqu %ymm5, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) vmovdqu %ymm6, 224(%rsp) vmovdqu %ymm3, 256(%rsp) vmovdqu %ymm4, 288(%rsp) movq glob_data + 6200(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 656(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_keypair_derand_jazz$56: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne L__crypto_kem_keypair_derand_jazz$56 vmovdqu %ymm5, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) vmovdqu %ymm6, 224(%rsp) vmovdqu %ymm3, 256(%rsp) vmovdqu %ymm4, 288(%rsp) movq glob_data + 6200(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) vmovdqu %ymm5, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) vmovdqu %ymm6, 224(%rsp) vmovdqu %ymm3, 256(%rsp) vmovdqu %ymm4, 288(%rsp) leaq 12384(%rsp), %rbx leaq 320(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$55(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$55: cmpq $255, %r13 setbe %al vmovdqu 96(%rsp), %ymm6 vmovdqu 128(%rsp), %ymm0 vmovdqu 160(%rsp), %ymm1 vmovdqu 192(%rsp), %ymm2 vmovdqu 224(%rsp), %ymm3 vmovdqu 256(%rsp), %ymm4 vmovdqu 288(%rsp), %ymm5 jmp L__crypto_kem_keypair_derand_jazz$47 L__crypto_kem_keypair_derand_jazz$48: leaq 320(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_keypair_derand_jazz$54: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne L__crypto_kem_keypair_derand_jazz$54 vmovdqu %ymm6, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) vmovdqu %ymm3, 224(%rsp) vmovdqu %ymm4, 256(%rsp) vmovdqu %ymm5, 288(%rsp) movq glob_data + 6200(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 12384(%rsp), %rax leaq 320(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %dil testb %dil, %sil jmp L__crypto_kem_keypair_derand_jazz$49 L__crypto_kem_keypair_derand_jazz$50: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw (%rcx,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$53 movw %si, (%rax,%r13,2) incq %r13 L__crypto_kem_keypair_derand_jazz$53: cmpq $256, %r13 jnb L__crypto_kem_keypair_derand_jazz$51 cmpw $3329, %r8w jnb L__crypto_kem_keypair_derand_jazz$51 movw %r8w, (%rax,%r13,2) incq %r13 L__crypto_kem_keypair_derand_jazz$52: L__crypto_kem_keypair_derand_jazz$51: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %dil testb %dil, %sil L__crypto_kem_keypair_derand_jazz$49: jne L__crypto_kem_keypair_derand_jazz$50 cmpq $255, %r13 setbe %al L__crypto_kem_keypair_derand_jazz$47: cmpb $0, %al jne L__crypto_kem_keypair_derand_jazz$48 leaq 8288(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$46(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$46: leaq 8800(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$45(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$45: leaq 9312(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$44(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$44: leaq 9824(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$43(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$43: leaq 10336(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$42(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$42: leaq 10848(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$41(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$41: leaq 11360(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$40(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$40: leaq 11872(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$39(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$39: leaq 12384(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$38(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$38: movb $0, %cl leaq 3680(%rsp), %rax leaq 4192(%rsp), %rdi leaq 4704(%rsp), %r8 leaq 5216(%rsp), %r9 leaq 32(%rsp), %r10 leaq -1472(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$37(%rip), %rdx movq %rdx, 1464(%rsp) jmp L_poly_getnoise_eta1_4x$1 L__crypto_kem_keypair_derand_jazz$37: leaq 1472(%rsp), %rsp movb $4, %cl leaq 5728(%rsp), %rax leaq 6240(%rsp), %rdi leaq 6752(%rsp), %r8 leaq 7264(%rsp), %r9 leaq 32(%rsp), %r10 leaq -1472(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$36(%rip), %rdx movq %rdx, 1464(%rsp) jmp L_poly_getnoise_eta1_4x$1 L__crypto_kem_keypair_derand_jazz$36: leaq 1472(%rsp), %rsp leaq 3680(%rsp), %rcx leaq L__crypto_kem_keypair_derand_jazz$35(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_keypair_derand_jazz$35: leaq 4192(%rsp), %rcx leaq L__crypto_kem_keypair_derand_jazz$34(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_keypair_derand_jazz$34: leaq 4704(%rsp), %rcx leaq L__crypto_kem_keypair_derand_jazz$33(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_keypair_derand_jazz$33: leaq 5216(%rsp), %rcx leaq L__crypto_kem_keypair_derand_jazz$32(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_keypair_derand_jazz$32: leaq 5728(%rsp), %rcx leaq L__crypto_kem_keypair_derand_jazz$31(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_keypair_derand_jazz$31: leaq 6240(%rsp), %rcx leaq L__crypto_kem_keypair_derand_jazz$30(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_keypair_derand_jazz$30: leaq 6752(%rsp), %rcx leaq 8288(%rsp), %rsi leaq 3680(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$29(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$29: leaq 2368(%rsp), %rcx leaq 8800(%rsp), %rsi leaq 4192(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$28(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$28: leaq 6752(%rsp), %rcx leaq 2368(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$27(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$27: leaq 2368(%rsp), %rcx leaq 9312(%rsp), %rsi leaq 4704(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$26(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$26: leaq 6752(%rsp), %rcx leaq 2368(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$25(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$25: leaq 6752(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$24(%rip), %rdx jmp L_poly_frommont$1 L__crypto_kem_keypair_derand_jazz$24: leaq 7264(%rsp), %rcx leaq 9824(%rsp), %rsi leaq 3680(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$23(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$23: leaq 2368(%rsp), %rcx leaq 10336(%rsp), %rsi leaq 4192(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$22(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$22: leaq 7264(%rsp), %rcx leaq 2368(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$21(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$21: leaq 2368(%rsp), %rcx leaq 10848(%rsp), %rsi leaq 4704(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$20(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$20: leaq 7264(%rsp), %rcx leaq 2368(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$19(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$19: leaq 7264(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$18(%rip), %rdx jmp L_poly_frommont$1 L__crypto_kem_keypair_derand_jazz$18: leaq 7776(%rsp), %rcx leaq 11360(%rsp), %rsi leaq 3680(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$17(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$17: leaq 2368(%rsp), %rcx leaq 11872(%rsp), %rsi leaq 4192(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$16(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$16: leaq 7776(%rsp), %rcx leaq 2368(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$15(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$15: leaq 2368(%rsp), %rcx leaq 12384(%rsp), %rsi leaq 4704(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$14(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$14: leaq 7776(%rsp), %rcx leaq 2368(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$13(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$13: leaq 7776(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$12(%rip), %rdx jmp L_poly_frommont$1 L__crypto_kem_keypair_derand_jazz$12: leaq 6752(%rsp), %rcx leaq 5216(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$11(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$11: leaq 7264(%rsp), %rcx leaq 5728(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$10(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$10: leaq 7776(%rsp), %rcx leaq 6240(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$9(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$9: leaq 6752(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 7264(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 7776(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) movq 12920(%rsp), %rax movq 12928(%rsp), %rcx leaq 3680(%rsp), %rdx leaq L__crypto_kem_keypair_derand_jazz$8(%rip), %rdi jmp L_poly_tobytes$1 L__crypto_kem_keypair_derand_jazz$8: addq $384, %rcx leaq 4192(%rsp), %rdx leaq L__crypto_kem_keypair_derand_jazz$7(%rip), %rdi jmp L_poly_tobytes$1 L__crypto_kem_keypair_derand_jazz$7: addq $384, %rcx leaq 4704(%rsp), %rdx leaq L__crypto_kem_keypair_derand_jazz$6(%rip), %rdi jmp L_poly_tobytes$1 L__crypto_kem_keypair_derand_jazz$6: movq %rax, %rcx leaq 6752(%rsp), %rdx leaq L__crypto_kem_keypair_derand_jazz$5(%rip), %rdi jmp L_poly_tobytes$1 L__crypto_kem_keypair_derand_jazz$5: addq $384, %rcx leaq 7264(%rsp), %rdx leaq L__crypto_kem_keypair_derand_jazz$4(%rip), %rdi jmp L_poly_tobytes$1 L__crypto_kem_keypair_derand_jazz$4: addq $384, %rcx leaq 7776(%rsp), %rdx leaq L__crypto_kem_keypair_derand_jazz$3(%rip), %rdi jmp L_poly_tobytes$1 L__crypto_kem_keypair_derand_jazz$3: addq $1152, %rax movq (%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 8(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 16(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 24(%rsp), %rcx movq %rcx, (%rax) movq 12912(%rsp), %rax addq $1152, %rax movq 12904(%rsp), %rcx movq (%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 8(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 16(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 24(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 32(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 40(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 48(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 56(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 64(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 72(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 80(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 88(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 96(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 104(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 112(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 120(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 128(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 136(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 144(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 152(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 160(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 168(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 176(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 184(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 192(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 200(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 208(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 216(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 224(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 232(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 240(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 248(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 256(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 264(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 272(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 280(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 288(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 296(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 304(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 312(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 320(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 328(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 336(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 344(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 352(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 360(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 368(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 376(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 384(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 392(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 400(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 408(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 416(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 424(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 432(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 440(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 448(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 456(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 464(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 472(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 480(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 488(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 496(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 504(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 512(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 520(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 528(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 536(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 544(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 552(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 560(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 568(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 576(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 584(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 592(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 600(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 608(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 616(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 624(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 632(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 640(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 648(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 656(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 664(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 672(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 680(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 688(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 696(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 704(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 712(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 720(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 728(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 736(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 744(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 752(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 760(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 768(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 776(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 784(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 792(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 800(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 808(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 816(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 824(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 832(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 840(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 848(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 856(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 864(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 872(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 880(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 888(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 896(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 904(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 912(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 920(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 928(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 936(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 944(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 952(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 960(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 968(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 976(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 984(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 992(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1000(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1008(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1016(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1024(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1032(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1040(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1048(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1056(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1064(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1072(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1080(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1088(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1096(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1104(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1112(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1120(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1128(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1136(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1144(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1152(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1160(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1168(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1176(%rcx), %rcx movq %rcx, (%rax) addq $8, %rax movq %rax, 12912(%rsp) movq 12904(%rsp), %r8 movq $1184, %rdi movq %rsp, %rax leaq -256(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$2(%rip), %rcx movq %rcx, 224(%rsp) jmp L_sha3_256$1 L__crypto_kem_keypair_derand_jazz$2: leaq 256(%rsp), %rsp movq 12912(%rsp), %rax movq 12896(%rsp), %rcx movq %rsp, %rdx movb (%rdx), %sil movb %sil, (%rax) movb 1(%rdx), %sil movb %sil, 1(%rax) movb 2(%rdx), %sil movb %sil, 2(%rax) movb 3(%rdx), %sil movb %sil, 3(%rax) movb 4(%rdx), %sil movb %sil, 4(%rax) movb 5(%rdx), %sil movb %sil, 5(%rax) movb 6(%rdx), %sil movb %sil, 6(%rax) movb 7(%rdx), %sil movb %sil, 7(%rax) movb 8(%rdx), %sil movb %sil, 8(%rax) movb 9(%rdx), %sil movb %sil, 9(%rax) movb 10(%rdx), %sil movb %sil, 10(%rax) movb 11(%rdx), %sil movb %sil, 11(%rax) movb 12(%rdx), %sil movb %sil, 12(%rax) movb 13(%rdx), %sil movb %sil, 13(%rax) movb 14(%rdx), %sil movb %sil, 14(%rax) movb 15(%rdx), %sil movb %sil, 15(%rax) movb 16(%rdx), %sil movb %sil, 16(%rax) movb 17(%rdx), %sil movb %sil, 17(%rax) movb 18(%rdx), %sil movb %sil, 18(%rax) movb 19(%rdx), %sil movb %sil, 19(%rax) movb 20(%rdx), %sil movb %sil, 20(%rax) movb 21(%rdx), %sil movb %sil, 21(%rax) movb 22(%rdx), %sil movb %sil, 22(%rax) movb 23(%rdx), %sil movb %sil, 23(%rax) movb 24(%rdx), %sil movb %sil, 24(%rax) movb 25(%rdx), %sil movb %sil, 25(%rax) movb 26(%rdx), %sil movb %sil, 26(%rax) movb 27(%rdx), %sil movb %sil, 27(%rax) movb 28(%rdx), %sil movb %sil, 28(%rax) movb 29(%rdx), %sil movb %sil, 29(%rax) movb 30(%rdx), %sil movb %sil, 30(%rax) movb 31(%rdx), %dl movb %dl, 31(%rax) addq $32, %rax leaq 32(%rcx), %rcx movb (%rcx), %dl movb %dl, (%rax) movb 1(%rcx), %dl movb %dl, 1(%rax) movb 2(%rcx), %dl movb %dl, 2(%rax) movb 3(%rcx), %dl movb %dl, 3(%rax) movb 4(%rcx), %dl movb %dl, 4(%rax) movb 5(%rcx), %dl movb %dl, 5(%rax) movb 6(%rcx), %dl movb %dl, 6(%rax) movb 7(%rcx), %dl movb %dl, 7(%rax) movb 8(%rcx), %dl movb %dl, 8(%rax) movb 9(%rcx), %dl movb %dl, 9(%rax) movb 10(%rcx), %dl movb %dl, 10(%rax) movb 11(%rcx), %dl movb %dl, 11(%rax) movb 12(%rcx), %dl movb %dl, 12(%rax) movb 13(%rcx), %dl movb %dl, 13(%rax) movb 14(%rcx), %dl movb %dl, 14(%rax) movb 15(%rcx), %dl movb %dl, 15(%rax) movb 16(%rcx), %dl movb %dl, 16(%rax) movb 17(%rcx), %dl movb %dl, 17(%rax) movb 18(%rcx), %dl movb %dl, 18(%rax) movb 19(%rcx), %dl movb %dl, 19(%rax) movb 20(%rcx), %dl movb %dl, 20(%rax) movb 21(%rcx), %dl movb %dl, 21(%rax) movb 22(%rcx), %dl movb %dl, 22(%rax) movb 23(%rcx), %dl movb %dl, 23(%rax) movb 24(%rcx), %dl movb %dl, 24(%rax) movb 25(%rcx), %dl movb %dl, 25(%rax) movb 26(%rcx), %dl movb %dl, 26(%rax) movb 27(%rcx), %dl movb %dl, 27(%rax) movb 28(%rcx), %dl movb %dl, 28(%rax) movb 29(%rcx), %dl movb %dl, 29(%rax) movb 30(%rcx), %dl movb %dl, 30(%rax) movb 31(%rcx), %cl movb %cl, 31(%rax) jmp *13000(%rsp) L_rej_uniform_avx$1: leaq glob_data + 4128(%rip), %r10 vmovdqu glob_data + 448(%rip), %ymm0 movq $0, %r13 movq $0, %r12 vpbroadcastb glob_data + 6430(%rip), %ymm1 vpbroadcastw glob_data + 6416(%rip), %ymm2 vmovdqu glob_data + 0(%rip), %ymm3 cmpq $224, %r13 setbe %al cmpq $448, %r12 setbe %cl testb %cl, %al jmp L_rej_uniform_avx$9 L_rej_uniform_avx$10: vpermq $-108, (%rbp,%r12), %ymm4 vpermq $-108, 24(%rbp,%r12), %ymm5 vpshufb %ymm3, %ymm4, %ymm4 vpshufb %ymm3, %ymm5, %ymm5 vpsrlw $4, %ymm4, %ymm6 vpsrlw $4, %ymm5, %ymm7 vpblendw $-86, %ymm6, %ymm4, %ymm4 vpblendw $-86, %ymm7, %ymm5, %ymm5 vpand %ymm2, %ymm4, %ymm4 vpand %ymm2, %ymm5, %ymm5 vpcmpgtw %ymm4, %ymm0, %ymm6 vpcmpgtw %ymm5, %ymm0, %ymm7 vpacksswb %ymm7, %ymm6, %ymm6 vpmovmskb %ymm6, %rax movq %rax, %rcx andq $255, %rcx vmovq (%r10,%rcx,8), %xmm6 movq %rax, %rdx shrq $16, %rdx andq $255, %rdx vmovq (%r10,%rdx,8), %xmm7 movq %rax, %rsi shrq $8, %rsi andq $255, %rsi vmovq (%r10,%rsi,8), %xmm8 shrq $24, %rax andq $255, %rax vmovq (%r10,%rax,8), %xmm9 vinserti128 $1, %xmm7, %ymm6, %ymm6 popcnt %rcx, %rcx popcnt %rdx, %rdx addq %r13, %rcx vinserti128 $1, %xmm9, %ymm8, %ymm7 addq %rcx, %rdx popcnt %rsi, %rsi addq %rdx, %rsi popcnt %rax, %rax addq %rsi, %rax vpaddb %ymm1, %ymm6, %ymm8 vpunpcklbw %ymm8, %ymm6, %ymm6 vpaddb %ymm1, %ymm7, %ymm8 vpunpcklbw %ymm8, %ymm7, %ymm7 vpshufb %ymm6, %ymm4, %ymm4 vpshufb %ymm7, %ymm5, %ymm5 vmovdqu %xmm4, (%rbx,%r13,2) vextracti128 $1, %ymm4, (%rbx,%rcx,2) vmovdqu %xmm5, (%rbx,%rdx,2) vextracti128 $1, %ymm5, (%rbx,%rsi,2) movq %rax, %r13 cmpq $224, %r13 setbe %al addq $48, %r12 cmpq $448, %r12 setbe %cl testb %cl, %al L_rej_uniform_avx$9: jne L_rej_uniform_avx$10 cmpq $248, %r13 setbe %al cmpq $488, %r12 setbe %cl testb %cl, %al movq $21845, %rax jmp L_rej_uniform_avx$7 L_rej_uniform_avx$8: vmovdqu (%rbp,%r12), %xmm4 vpshufb %xmm3, %xmm4, %xmm4 vpsrlw $4, %xmm4, %xmm5 vpblendw $-86, %xmm5, %xmm4, %xmm4 vpand %xmm2, %xmm4, %xmm4 vpcmpgtw %xmm4, %xmm0, %xmm5 vpmovmskb %xmm5, %rcx pext %rax, %rcx, %rcx vmovq (%r10,%rcx,8), %xmm5 popcnt %rcx, %rcx vpaddb %xmm1, %xmm5, %xmm6 vpunpcklbw %xmm6, %xmm5, %xmm5 vpshufb %xmm5, %xmm4, %xmm4 vmovdqu %xmm4, (%rbx,%r13,2) addq %rcx, %r13 addq $12, %r12 cmpq $248, %r13 setbe %cl cmpq $488, %r12 setbe %dl testb %dl, %cl L_rej_uniform_avx$7: jne L_rej_uniform_avx$8 cmpq $255, %r13 setbe %al cmpq $501, %r12 setbe %cl testb %cl, %al jmp L_rej_uniform_avx$2 L_rej_uniform_avx$3: movzbw (%rbp,%r12), %ax incq %r12 movzbw (%rbp,%r12), %dx incq %r12 movw %dx, %cx shlw $8, %dx orw %dx, %ax andw $4095, %ax shrw $4, %cx movzbw (%rbp,%r12), %dx incq %r12 shlw $4, %dx orw %dx, %cx cmpw $3329, %ax jnb L_rej_uniform_avx$6 movw %ax, (%rbx,%r13,2) incq %r13 L_rej_uniform_avx$6: cmpw $3329, %cx jnb L_rej_uniform_avx$4 cmpq $256, %r13 jnb L_rej_uniform_avx$4 movw %cx, (%rbx,%r13,2) incq %r13 L_rej_uniform_avx$5: L_rej_uniform_avx$4: cmpq $255, %r13 setbe %al cmpq $501, %r12 setbe %cl testb %cl, %al L_rej_uniform_avx$2: jne L_rej_uniform_avx$3 jmp *%r11 L_poly_tomsg_1$1: leaq L_poly_tomsg_1$2(%rip), %r8 jmp L_poly_csubq$1 L_poly_tomsg_1$2: leaq glob_data + 224(%rip), %rsi vmovdqu (%rsi), %ymm0 leaq glob_data + 192(%rip), %rsi vmovdqu (%rsi), %ymm1 vmovdqu (%rcx), %ymm2 vmovdqu 32(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, (%rax) vmovdqu 64(%rcx), %ymm2 vmovdqu 96(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, 4(%rax) vmovdqu 128(%rcx), %ymm2 vmovdqu 160(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, 8(%rax) vmovdqu 192(%rcx), %ymm2 vmovdqu 224(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, 12(%rax) vmovdqu 256(%rcx), %ymm2 vmovdqu 288(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, 16(%rax) vmovdqu 320(%rcx), %ymm2 vmovdqu 352(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, 20(%rax) vmovdqu 384(%rcx), %ymm2 vmovdqu 416(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, 24(%rax) vmovdqu 448(%rcx), %ymm2 vmovdqu 480(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm0 vpsraw $15, %ymm2, %ymm3 vpsraw $15, %ymm0, %ymm4 vpxor %ymm3, %ymm2, %ymm2 vpxor %ymm4, %ymm0, %ymm0 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm0, %ymm0 vpacksswb %ymm0, %ymm2, %ymm0 vpermq $-40, %ymm0, %ymm0 vpmovmskb %ymm0, %ecx movl %ecx, 28(%rax) jmp *%rdi L_poly_tomsg$1: leaq L_poly_tomsg$2(%rip), %r8 jmp L_poly_csubq$1 L_poly_tomsg$2: leaq glob_data + 224(%rip), %rax vmovdqu (%rax), %ymm0 leaq glob_data + 192(%rip), %rax vmovdqu (%rax), %ymm1 vmovdqu (%rcx), %ymm2 vmovdqu 32(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, (%rdx) vmovdqu 64(%rcx), %ymm2 vmovdqu 96(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, 4(%rdx) vmovdqu 128(%rcx), %ymm2 vmovdqu 160(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, 8(%rdx) vmovdqu 192(%rcx), %ymm2 vmovdqu 224(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, 12(%rdx) vmovdqu 256(%rcx), %ymm2 vmovdqu 288(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, 16(%rdx) vmovdqu 320(%rcx), %ymm2 vmovdqu 352(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, 20(%rdx) vmovdqu 384(%rcx), %ymm2 vmovdqu 416(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, 24(%rdx) vmovdqu 448(%rcx), %ymm2 vmovdqu 480(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm0 vpsraw $15, %ymm2, %ymm3 vpsraw $15, %ymm0, %ymm4 vpxor %ymm3, %ymm2, %ymm2 vpxor %ymm4, %ymm0, %ymm0 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm0, %ymm0 vpacksswb %ymm0, %ymm2, %ymm0 vpermq $-40, %ymm0, %ymm0 vpmovmskb %ymm0, %eax movl %eax, 28(%rdx) jmp *%rsi L_poly_tobytes$1: leaq glob_data + 448(%rip), %rsi vmovdqu (%rsi), %ymm0 vmovdqu (%rdx), %ymm7 vmovdqu 32(%rdx), %ymm8 vmovdqu 64(%rdx), %ymm1 vmovdqu 96(%rdx), %ymm2 vmovdqu 128(%rdx), %ymm3 vmovdqu 160(%rdx), %ymm4 vmovdqu 192(%rdx), %ymm5 vmovdqu 224(%rdx), %ymm6 vpsubw %ymm0, %ymm7, %ymm7 vpsraw $15, %ymm7, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm7, %ymm9, %ymm7 vpsubw %ymm0, %ymm8, %ymm8 vpsraw $15, %ymm8, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm8, %ymm9, %ymm8 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm1, %ymm9, %ymm1 vpsubw %ymm0, %ymm2, %ymm2 vpsraw $15, %ymm2, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm2, %ymm9, %ymm2 vpsubw %ymm0, %ymm3, %ymm3 vpsraw $15, %ymm3, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm3, %ymm9, %ymm3 vpsubw %ymm0, %ymm4, %ymm4 vpsraw $15, %ymm4, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm4, %ymm9, %ymm4 vpsubw %ymm0, %ymm5, %ymm5 vpsraw $15, %ymm5, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm5, %ymm9, %ymm5 vpsubw %ymm0, %ymm6, %ymm6 vpsraw $15, %ymm6, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm6, %ymm9, %ymm6 vpsllw $12, %ymm8, %ymm9 vpor %ymm7, %ymm9, %ymm7 vpsrlw $4, %ymm8, %ymm8 vpsllw $8, %ymm1, %ymm9 vpor %ymm9, %ymm8, %ymm8 vpsrlw $8, %ymm1, %ymm1 vpsllw $4, %ymm2, %ymm2 vpor %ymm2, %ymm1, %ymm1 vpsllw $12, %ymm4, %ymm2 vpor %ymm3, %ymm2, %ymm2 vpsrlw $4, %ymm4, %ymm3 vpsllw $8, %ymm5, %ymm4 vpor %ymm4, %ymm3, %ymm3 vpsrlw $8, %ymm5, %ymm4 vpsllw $4, %ymm6, %ymm5 vpor %ymm5, %ymm4, %ymm4 vpslld $16, %ymm8, %ymm5 vpblendw $-86, %ymm5, %ymm7, %ymm5 vpsrld $16, %ymm7, %ymm6 vpblendw $-86, %ymm8, %ymm6, %ymm6 vpslld $16, %ymm2, %ymm7 vpblendw $-86, %ymm7, %ymm1, %ymm7 vpsrld $16, %ymm1, %ymm1 vpblendw $-86, %ymm2, %ymm1, %ymm1 vpslld $16, %ymm4, %ymm2 vpblendw $-86, %ymm2, %ymm3, %ymm8 vpsrld $16, %ymm3, %ymm2 vpblendw $-86, %ymm4, %ymm2, %ymm2 vmovsldup %ymm7, %ymm3 vpblendd $-86, %ymm3, %ymm5, %ymm3 vpsrlq $32, %ymm5, %ymm4 vpblendd $-86, %ymm7, %ymm4, %ymm4 vmovsldup %ymm6, %ymm5 vpblendd $-86, %ymm5, %ymm8, %ymm5 vpsrlq $32, %ymm8, %ymm7 vpblendd $-86, %ymm6, %ymm7, %ymm6 vmovsldup %ymm2, %ymm7 vpblendd $-86, %ymm7, %ymm1, %ymm7 vpsrlq $32, %ymm1, %ymm1 vpblendd $-86, %ymm2, %ymm1, %ymm1 vpunpcklqdq %ymm5, %ymm3, %ymm2 vpunpckhqdq %ymm5, %ymm3, %ymm3 vpunpcklqdq %ymm4, %ymm7, %ymm5 vpunpckhqdq %ymm4, %ymm7, %ymm4 vpunpcklqdq %ymm1, %ymm6, %ymm7 vpunpckhqdq %ymm1, %ymm6, %ymm1 vperm2i128 $32, %ymm5, %ymm2, %ymm6 vperm2i128 $49, %ymm5, %ymm2, %ymm2 vperm2i128 $32, %ymm3, %ymm7, %ymm5 vperm2i128 $49, %ymm3, %ymm7, %ymm3 vperm2i128 $32, %ymm1, %ymm4, %ymm7 vperm2i128 $49, %ymm1, %ymm4, %ymm1 vmovdqu %ymm6, (%rcx) vmovdqu %ymm5, 32(%rcx) vmovdqu %ymm7, 64(%rcx) vmovdqu %ymm2, 96(%rcx) vmovdqu %ymm3, 128(%rcx) vmovdqu %ymm1, 160(%rcx) vmovdqu 256(%rdx), %ymm7 vmovdqu 288(%rdx), %ymm8 vmovdqu 320(%rdx), %ymm1 vmovdqu 352(%rdx), %ymm2 vmovdqu 384(%rdx), %ymm3 vmovdqu 416(%rdx), %ymm4 vmovdqu 448(%rdx), %ymm5 vmovdqu 480(%rdx), %ymm6 vpsubw %ymm0, %ymm7, %ymm7 vpsraw $15, %ymm7, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm7, %ymm9, %ymm7 vpsubw %ymm0, %ymm8, %ymm8 vpsraw $15, %ymm8, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm8, %ymm9, %ymm8 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm1, %ymm9, %ymm1 vpsubw %ymm0, %ymm2, %ymm2 vpsraw $15, %ymm2, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm2, %ymm9, %ymm2 vpsubw %ymm0, %ymm3, %ymm3 vpsraw $15, %ymm3, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm3, %ymm9, %ymm3 vpsubw %ymm0, %ymm4, %ymm4 vpsraw $15, %ymm4, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm4, %ymm9, %ymm4 vpsubw %ymm0, %ymm5, %ymm5 vpsraw $15, %ymm5, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm5, %ymm9, %ymm5 vpsubw %ymm0, %ymm6, %ymm6 vpsraw $15, %ymm6, %ymm9 vpand %ymm0, %ymm9, %ymm0 vpaddw %ymm6, %ymm0, %ymm0 vpsllw $12, %ymm8, %ymm6 vpor %ymm7, %ymm6, %ymm6 vpsrlw $4, %ymm8, %ymm7 vpsllw $8, %ymm1, %ymm8 vpor %ymm8, %ymm7, %ymm7 vpsrlw $8, %ymm1, %ymm1 vpsllw $4, %ymm2, %ymm2 vpor %ymm2, %ymm1, %ymm1 vpsllw $12, %ymm4, %ymm2 vpor %ymm3, %ymm2, %ymm2 vpsrlw $4, %ymm4, %ymm3 vpsllw $8, %ymm5, %ymm4 vpor %ymm4, %ymm3, %ymm3 vpsrlw $8, %ymm5, %ymm4 vpsllw $4, %ymm0, %ymm0 vpor %ymm0, %ymm4, %ymm0 vpslld $16, %ymm7, %ymm4 vpblendw $-86, %ymm4, %ymm6, %ymm4 vpsrld $16, %ymm6, %ymm5 vpblendw $-86, %ymm7, %ymm5, %ymm5 vpslld $16, %ymm2, %ymm6 vpblendw $-86, %ymm6, %ymm1, %ymm6 vpsrld $16, %ymm1, %ymm1 vpblendw $-86, %ymm2, %ymm1, %ymm1 vpslld $16, %ymm0, %ymm2 vpblendw $-86, %ymm2, %ymm3, %ymm7 vpsrld $16, %ymm3, %ymm2 vpblendw $-86, %ymm0, %ymm2, %ymm0 vmovsldup %ymm6, %ymm2 vpblendd $-86, %ymm2, %ymm4, %ymm2 vpsrlq $32, %ymm4, %ymm3 vpblendd $-86, %ymm6, %ymm3, %ymm3 vmovsldup %ymm5, %ymm4 vpblendd $-86, %ymm4, %ymm7, %ymm4 vpsrlq $32, %ymm7, %ymm6 vpblendd $-86, %ymm5, %ymm6, %ymm5 vmovsldup %ymm0, %ymm6 vpblendd $-86, %ymm6, %ymm1, %ymm6 vpsrlq $32, %ymm1, %ymm1 vpblendd $-86, %ymm0, %ymm1, %ymm0 vpunpcklqdq %ymm4, %ymm2, %ymm1 vpunpckhqdq %ymm4, %ymm2, %ymm2 vpunpcklqdq %ymm3, %ymm6, %ymm4 vpunpckhqdq %ymm3, %ymm6, %ymm3 vpunpcklqdq %ymm0, %ymm5, %ymm6 vpunpckhqdq %ymm0, %ymm5, %ymm0 vperm2i128 $32, %ymm4, %ymm1, %ymm5 vperm2i128 $49, %ymm4, %ymm1, %ymm1 vperm2i128 $32, %ymm2, %ymm6, %ymm4 vperm2i128 $49, %ymm2, %ymm6, %ymm2 vperm2i128 $32, %ymm0, %ymm3, %ymm6 vperm2i128 $49, %ymm0, %ymm3, %ymm0 vmovdqu %ymm5, 192(%rcx) vmovdqu %ymm4, 224(%rcx) vmovdqu %ymm6, 256(%rcx) vmovdqu %ymm1, 288(%rcx) vmovdqu %ymm2, 320(%rcx) vmovdqu %ymm0, 352(%rcx) jmp *%rdi L_poly_sub$1: vmovdqu (%rsi), %ymm0 vmovdqu (%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, (%rcx) vmovdqu 32(%rsi), %ymm0 vmovdqu 32(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 32(%rcx) vmovdqu 64(%rsi), %ymm0 vmovdqu 64(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 64(%rcx) vmovdqu 96(%rsi), %ymm0 vmovdqu 96(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 96(%rcx) vmovdqu 128(%rsi), %ymm0 vmovdqu 128(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 128(%rcx) vmovdqu 160(%rsi), %ymm0 vmovdqu 160(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 160(%rcx) vmovdqu 192(%rsi), %ymm0 vmovdqu 192(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 192(%rcx) vmovdqu 224(%rsi), %ymm0 vmovdqu 224(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 224(%rcx) vmovdqu 256(%rsi), %ymm0 vmovdqu 256(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 256(%rcx) vmovdqu 288(%rsi), %ymm0 vmovdqu 288(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 288(%rcx) vmovdqu 320(%rsi), %ymm0 vmovdqu 320(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 320(%rcx) vmovdqu 352(%rsi), %ymm0 vmovdqu 352(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 352(%rcx) vmovdqu 384(%rsi), %ymm0 vmovdqu 384(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 384(%rcx) vmovdqu 416(%rsi), %ymm0 vmovdqu 416(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 416(%rcx) vmovdqu 448(%rsi), %ymm0 vmovdqu 448(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 448(%rcx) vmovdqu 480(%rsi), %ymm0 vmovdqu 480(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 480(%rcx) jmp *%r8 L_poly_ntt$1: leaq glob_data + 1280(%rip), %rsi vmovdqu glob_data + 448(%rip), %ymm0 vpbroadcastd (%rsi), %ymm1 vpbroadcastd 4(%rsi), %ymm2 vmovdqu (%rcx), %ymm3 vmovdqu 32(%rcx), %ymm14 vmovdqu 64(%rcx), %ymm4 vmovdqu 96(%rcx), %ymm5 vmovdqu 256(%rcx), %ymm6 vmovdqu 288(%rcx), %ymm7 vmovdqu 320(%rcx), %ymm12 vmovdqu 352(%rcx), %ymm8 vpmullw %ymm6, %ymm1, %ymm9 vpmulhw %ymm6, %ymm2, %ymm6 vpmullw %ymm7, %ymm1, %ymm10 vpmulhw %ymm7, %ymm2, %ymm15 vpmullw %ymm12, %ymm1, %ymm11 vpmulhw %ymm12, %ymm2, %ymm7 vpmullw %ymm8, %ymm1, %ymm12 vpmulhw %ymm8, %ymm2, %ymm8 vpmulhw %ymm0, %ymm9, %ymm9 vpmulhw %ymm0, %ymm10, %ymm10 vpmulhw %ymm0, %ymm11, %ymm11 vpmulhw %ymm0, %ymm12, %ymm12 vpsubw %ymm15, %ymm14, %ymm13 vpaddw %ymm14, %ymm15, %ymm14 vpsubw %ymm6, %ymm3, %ymm15 vpaddw %ymm3, %ymm6, %ymm3 vpsubw %ymm8, %ymm5, %ymm6 vpaddw %ymm5, %ymm8, %ymm5 vpsubw %ymm7, %ymm4, %ymm8 vpaddw %ymm4, %ymm7, %ymm4 vpaddw %ymm15, %ymm9, %ymm7 vpsubw %ymm9, %ymm3, %ymm3 vpaddw %ymm13, %ymm10, %ymm9 vpsubw %ymm10, %ymm14, %ymm10 vpaddw %ymm8, %ymm11, %ymm8 vpsubw %ymm11, %ymm4, %ymm4 vpaddw %ymm6, %ymm12, %ymm6 vpsubw %ymm12, %ymm5, %ymm5 vmovdqu %ymm3, (%rcx) vmovdqu %ymm10, 32(%rcx) vmovdqu %ymm4, 64(%rcx) vmovdqu %ymm5, 96(%rcx) vmovdqu %ymm7, 256(%rcx) vmovdqu %ymm9, 288(%rcx) vmovdqu %ymm8, 320(%rcx) vmovdqu %ymm6, 352(%rcx) vmovdqu 128(%rcx), %ymm3 vmovdqu 160(%rcx), %ymm12 vmovdqu 192(%rcx), %ymm4 vmovdqu 224(%rcx), %ymm5 vmovdqu 384(%rcx), %ymm6 vmovdqu 416(%rcx), %ymm7 vmovdqu 448(%rcx), %ymm10 vmovdqu 480(%rcx), %ymm11 vpmullw %ymm6, %ymm1, %ymm14 vpmulhw %ymm6, %ymm2, %ymm6 vpmullw %ymm7, %ymm1, %ymm8 vpmulhw %ymm7, %ymm2, %ymm13 vpmullw %ymm10, %ymm1, %ymm9 vpmulhw %ymm10, %ymm2, %ymm7 vpmullw %ymm11, %ymm1, %ymm10 vpmulhw %ymm11, %ymm2, %ymm1 vpmulhw %ymm0, %ymm14, %ymm2 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhw %ymm0, %ymm9, %ymm9 vpmulhw %ymm0, %ymm10, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm6, %ymm3, %ymm13 vpaddw %ymm3, %ymm6, %ymm3 vpsubw %ymm1, %ymm5, %ymm6 vpaddw %ymm5, %ymm1, %ymm1 vpsubw %ymm7, %ymm4, %ymm5 vpaddw %ymm4, %ymm7, %ymm4 vpaddw %ymm13, %ymm2, %ymm7 vpsubw %ymm2, %ymm3, %ymm2 vpaddw %ymm11, %ymm8, %ymm3 vpsubw %ymm8, %ymm12, %ymm8 vpaddw %ymm5, %ymm9, %ymm5 vpsubw %ymm9, %ymm4, %ymm9 vpaddw %ymm6, %ymm10, %ymm4 vpsubw %ymm10, %ymm1, %ymm14 vmovdqu %ymm7, 384(%rcx) vmovdqu %ymm3, 416(%rcx) vmovdqu %ymm5, 448(%rcx) vmovdqu %ymm4, 480(%rcx) vpbroadcastd 8(%rsi), %ymm1 vpbroadcastd 12(%rsi), %ymm4 vmovdqu %ymm8, %ymm10 vmovdqu %ymm9, %ymm3 vmovdqu (%rcx), %ymm6 vmovdqu 32(%rcx), %ymm5 vmovdqu 64(%rcx), %ymm9 vmovdqu 96(%rcx), %ymm7 vpmullw %ymm2, %ymm1, %ymm11 vpmulhw %ymm2, %ymm4, %ymm8 vpmullw %ymm10, %ymm1, %ymm13 vpmulhw %ymm10, %ymm4, %ymm12 vpmullw %ymm3, %ymm1, %ymm2 vpmulhw %ymm3, %ymm4, %ymm10 vpmullw %ymm14, %ymm1, %ymm3 vpmulhw %ymm14, %ymm4, %ymm14 vpmulhw %ymm0, %ymm11, %ymm11 vpmulhw %ymm0, %ymm13, %ymm1 vpmulhw %ymm0, %ymm2, %ymm2 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm12, %ymm5, %ymm4 vpaddw %ymm5, %ymm12, %ymm5 vpsubw %ymm8, %ymm6, %ymm12 vpaddw %ymm6, %ymm8, %ymm13 vpsubw %ymm14, %ymm7, %ymm6 vpaddw %ymm7, %ymm14, %ymm7 vpsubw %ymm10, %ymm9, %ymm8 vpaddw %ymm9, %ymm10, %ymm9 vpaddw %ymm12, %ymm11, %ymm10 vpsubw %ymm11, %ymm13, %ymm12 vpaddw %ymm4, %ymm1, %ymm4 vpsubw %ymm1, %ymm5, %ymm5 vpaddw %ymm8, %ymm2, %ymm8 vpsubw %ymm2, %ymm9, %ymm2 vpaddw %ymm6, %ymm3, %ymm13 vpsubw %ymm3, %ymm7, %ymm7 vmovdqu 16(%rsi), %ymm3 vmovdqu 48(%rsi), %ymm6 vperm2i128 $32, %ymm10, %ymm12, %ymm11 vperm2i128 $49, %ymm10, %ymm12, %ymm9 vperm2i128 $32, %ymm4, %ymm5, %ymm1 vperm2i128 $49, %ymm4, %ymm5, %ymm12 vperm2i128 $32, %ymm8, %ymm2, %ymm5 vperm2i128 $49, %ymm8, %ymm2, %ymm8 vperm2i128 $32, %ymm13, %ymm7, %ymm2 vperm2i128 $49, %ymm13, %ymm7, %ymm13 vpmullw %ymm5, %ymm3, %ymm4 vpmulhw %ymm5, %ymm6, %ymm10 vpmullw %ymm8, %ymm3, %ymm14 vpmulhw %ymm8, %ymm6, %ymm8 vpmullw %ymm2, %ymm3, %ymm5 vpmulhw %ymm2, %ymm6, %ymm2 vpmullw %ymm13, %ymm3, %ymm7 vpmulhw %ymm13, %ymm6, %ymm13 vpmulhw %ymm0, %ymm4, %ymm3 vpmulhw %ymm0, %ymm14, %ymm4 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm7, %ymm6 vpsubw %ymm8, %ymm9, %ymm7 vpaddw %ymm9, %ymm8, %ymm8 vpsubw %ymm10, %ymm11, %ymm9 vpaddw %ymm11, %ymm10, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm2, %ymm1, %ymm13 vpaddw %ymm1, %ymm2, %ymm1 vpaddw %ymm9, %ymm3, %ymm2 vpsubw %ymm3, %ymm10, %ymm9 vpaddw %ymm7, %ymm4, %ymm3 vpsubw %ymm4, %ymm8, %ymm4 vpaddw %ymm13, %ymm5, %ymm7 vpsubw %ymm5, %ymm1, %ymm13 vpaddw %ymm11, %ymm6, %ymm11 vpsubw %ymm6, %ymm12, %ymm14 vmovdqu 80(%rsi), %ymm1 vmovdqu 112(%rsi), %ymm10 vpunpcklqdq %ymm2, %ymm9, %ymm5 vpunpckhqdq %ymm2, %ymm9, %ymm12 vpunpcklqdq %ymm3, %ymm4, %ymm8 vpunpckhqdq %ymm3, %ymm4, %ymm6 vpunpcklqdq %ymm7, %ymm13, %ymm2 vpunpckhqdq %ymm7, %ymm13, %ymm4 vpunpcklqdq %ymm11, %ymm14, %ymm3 vpunpckhqdq %ymm11, %ymm14, %ymm7 vpmullw %ymm2, %ymm1, %ymm11 vpmulhw %ymm2, %ymm10, %ymm13 vpmullw %ymm4, %ymm1, %ymm14 vpmulhw %ymm4, %ymm10, %ymm4 vpmullw %ymm3, %ymm1, %ymm2 vpmulhw %ymm3, %ymm10, %ymm9 vpmullw %ymm7, %ymm1, %ymm3 vpmulhw %ymm7, %ymm10, %ymm7 vpmulhw %ymm0, %ymm11, %ymm10 vpmulhw %ymm0, %ymm14, %ymm1 vpmulhw %ymm0, %ymm2, %ymm2 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm4, %ymm12, %ymm11 vpaddw %ymm12, %ymm4, %ymm4 vpsubw %ymm13, %ymm5, %ymm12 vpaddw %ymm5, %ymm13, %ymm13 vpsubw %ymm7, %ymm6, %ymm5 vpaddw %ymm6, %ymm7, %ymm6 vpsubw %ymm9, %ymm8, %ymm7 vpaddw %ymm8, %ymm9, %ymm8 vpaddw %ymm12, %ymm10, %ymm9 vpsubw %ymm10, %ymm13, %ymm12 vpaddw %ymm11, %ymm1, %ymm10 vpsubw %ymm1, %ymm4, %ymm4 vpaddw %ymm7, %ymm2, %ymm7 vpsubw %ymm2, %ymm8, %ymm2 vpaddw %ymm5, %ymm3, %ymm13 vpsubw %ymm3, %ymm6, %ymm6 vmovdqu 144(%rsi), %ymm3 vmovdqu 176(%rsi), %ymm5 vmovsldup %ymm9, %ymm1 vpblendd $-86, %ymm1, %ymm12, %ymm11 vpsrlq $32, %ymm12, %ymm1 vpblendd $-86, %ymm9, %ymm1, %ymm8 vmovsldup %ymm10, %ymm1 vpblendd $-86, %ymm1, %ymm4, %ymm1 vpsrlq $32, %ymm4, %ymm4 vpblendd $-86, %ymm10, %ymm4, %ymm12 vmovsldup %ymm7, %ymm4 vpblendd $-86, %ymm4, %ymm2, %ymm9 vpsrlq $32, %ymm2, %ymm2 vpblendd $-86, %ymm7, %ymm2, %ymm7 vmovsldup %ymm13, %ymm2 vpblendd $-86, %ymm2, %ymm6, %ymm2 vpsrlq $32, %ymm6, %ymm4 vpblendd $-86, %ymm13, %ymm4, %ymm13 vpmullw %ymm9, %ymm3, %ymm4 vpmulhw %ymm9, %ymm5, %ymm10 vpmullw %ymm7, %ymm3, %ymm14 vpmulhw %ymm7, %ymm5, %ymm9 vpmullw %ymm2, %ymm3, %ymm6 vpmulhw %ymm2, %ymm5, %ymm2 vpmullw %ymm13, %ymm3, %ymm7 vpmulhw %ymm13, %ymm5, %ymm13 vpmulhw %ymm0, %ymm4, %ymm3 vpmulhw %ymm0, %ymm14, %ymm4 vpmulhw %ymm0, %ymm6, %ymm5 vpmulhw %ymm0, %ymm7, %ymm6 vpsubw %ymm9, %ymm8, %ymm7 vpaddw %ymm8, %ymm9, %ymm8 vpsubw %ymm10, %ymm11, %ymm9 vpaddw %ymm11, %ymm10, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm2, %ymm1, %ymm13 vpaddw %ymm1, %ymm2, %ymm1 vpaddw %ymm9, %ymm3, %ymm2 vpsubw %ymm3, %ymm10, %ymm9 vpaddw %ymm7, %ymm4, %ymm3 vpsubw %ymm4, %ymm8, %ymm4 vpaddw %ymm13, %ymm5, %ymm7 vpsubw %ymm5, %ymm1, %ymm13 vpaddw %ymm11, %ymm6, %ymm11 vpsubw %ymm6, %ymm12, %ymm14 vmovdqu 208(%rsi), %ymm5 vmovdqu 240(%rsi), %ymm6 vpslld $16, %ymm2, %ymm1 vpblendw $-86, %ymm1, %ymm9, %ymm10 vpsrld $16, %ymm9, %ymm1 vpblendw $-86, %ymm2, %ymm1, %ymm8 vpslld $16, %ymm3, %ymm1 vpblendw $-86, %ymm1, %ymm4, %ymm1 vpsrld $16, %ymm4, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm12 vpslld $16, %ymm7, %ymm2 vpblendw $-86, %ymm2, %ymm13, %ymm4 vpsrld $16, %ymm13, %ymm2 vpblendw $-86, %ymm7, %ymm2, %ymm7 vpslld $16, %ymm11, %ymm2 vpblendw $-86, %ymm2, %ymm14, %ymm2 vpsrld $16, %ymm14, %ymm3 vpblendw $-86, %ymm11, %ymm3, %ymm13 vpmullw %ymm4, %ymm5, %ymm3 vpmulhw %ymm4, %ymm6, %ymm11 vpmullw %ymm7, %ymm5, %ymm4 vpmulhw %ymm7, %ymm6, %ymm9 vpmullw %ymm2, %ymm5, %ymm7 vpmulhw %ymm2, %ymm6, %ymm2 vpmullw %ymm13, %ymm5, %ymm14 vpmulhw %ymm13, %ymm6, %ymm13 vpmulhw %ymm0, %ymm3, %ymm3 vpmulhw %ymm0, %ymm4, %ymm4 vpmulhw %ymm0, %ymm7, %ymm5 vpmulhw %ymm0, %ymm14, %ymm6 vpsubw %ymm9, %ymm8, %ymm7 vpaddw %ymm8, %ymm9, %ymm8 vpsubw %ymm11, %ymm10, %ymm9 vpaddw %ymm10, %ymm11, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm2, %ymm1, %ymm13 vpaddw %ymm1, %ymm2, %ymm1 vpaddw %ymm9, %ymm3, %ymm2 vpsubw %ymm3, %ymm10, %ymm3 vpaddw %ymm7, %ymm4, %ymm7 vpsubw %ymm4, %ymm8, %ymm4 vpaddw %ymm13, %ymm5, %ymm8 vpsubw %ymm5, %ymm1, %ymm1 vpaddw %ymm11, %ymm6, %ymm5 vpsubw %ymm6, %ymm12, %ymm10 vmovdqu 272(%rsi), %ymm9 vmovdqu 304(%rsi), %ymm13 vmovdqu 336(%rsi), %ymm11 vmovdqu 368(%rsi), %ymm6 vpmullw %ymm1, %ymm9, %ymm14 vpmulhw %ymm1, %ymm13, %ymm12 vpmullw %ymm10, %ymm9, %ymm9 vpmulhw %ymm10, %ymm13, %ymm13 vpmullw %ymm8, %ymm11, %ymm10 vpmulhw %ymm8, %ymm6, %ymm1 vpmullw %ymm5, %ymm11, %ymm11 vpmulhw %ymm5, %ymm6, %ymm5 vpmulhw %ymm0, %ymm14, %ymm6 vpmulhw %ymm0, %ymm9, %ymm8 vpmulhw %ymm0, %ymm10, %ymm9 vpmulhw %ymm0, %ymm11, %ymm10 vpsubw %ymm13, %ymm4, %ymm11 vpaddw %ymm4, %ymm13, %ymm4 vpsubw %ymm12, %ymm3, %ymm13 vpaddw %ymm3, %ymm12, %ymm3 vpsubw %ymm5, %ymm7, %ymm12 vpaddw %ymm7, %ymm5, %ymm5 vpsubw %ymm1, %ymm2, %ymm7 vpaddw %ymm2, %ymm1, %ymm1 vpaddw %ymm13, %ymm6, %ymm2 vpsubw %ymm6, %ymm3, %ymm3 vpaddw %ymm11, %ymm8, %ymm6 vpsubw %ymm8, %ymm4, %ymm4 vpaddw %ymm7, %ymm9, %ymm7 vpsubw %ymm9, %ymm1, %ymm8 vpaddw %ymm12, %ymm10, %ymm1 vpsubw %ymm10, %ymm5, %ymm5 vmovdqu glob_data + 384(%rip), %ymm9 vpmulhw %ymm9, %ymm3, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm3, %ymm3 vpmulhw %ymm9, %ymm4, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm4, %ymm4 vpmulhw %ymm9, %ymm8, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm8, %ymm8 vpmulhw %ymm9, %ymm5, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm5, %ymm5 vpmulhw %ymm9, %ymm2, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm2, %ymm2 vpmulhw %ymm9, %ymm6, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm6, %ymm6 vpmulhw %ymm9, %ymm7, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm7, %ymm7 vpmulhw %ymm9, %ymm1, %ymm9 vpsraw $10, %ymm9, %ymm9 vpmullw %ymm0, %ymm9, %ymm9 vpsubw %ymm9, %ymm1, %ymm1 vmovdqu %ymm3, (%rcx) vmovdqu %ymm4, 32(%rcx) vmovdqu %ymm2, 64(%rcx) vmovdqu %ymm6, 96(%rcx) vmovdqu %ymm8, 128(%rcx) vmovdqu %ymm5, 160(%rcx) vmovdqu %ymm7, 192(%rcx) vmovdqu %ymm1, 224(%rcx) vpbroadcastd 400(%rsi), %ymm5 vpbroadcastd 404(%rsi), %ymm8 vmovdqu 384(%rcx), %ymm1 vmovdqu 416(%rcx), %ymm2 vmovdqu 448(%rcx), %ymm10 vmovdqu 480(%rcx), %ymm9 vmovdqu 256(%rcx), %ymm3 vmovdqu 288(%rcx), %ymm7 vmovdqu 320(%rcx), %ymm6 vmovdqu 352(%rcx), %ymm4 vpmullw %ymm1, %ymm5, %ymm14 vpmulhw %ymm1, %ymm8, %ymm12 vpmullw %ymm2, %ymm5, %ymm1 vpmulhw %ymm2, %ymm8, %ymm11 vpmullw %ymm10, %ymm5, %ymm2 vpmulhw %ymm10, %ymm8, %ymm13 vpmullw %ymm9, %ymm5, %ymm10 vpmulhw %ymm9, %ymm8, %ymm5 vpmulhw %ymm0, %ymm14, %ymm8 vpmulhw %ymm0, %ymm1, %ymm9 vpmulhw %ymm0, %ymm2, %ymm1 vpmulhw %ymm0, %ymm10, %ymm2 vpsubw %ymm11, %ymm7, %ymm10 vpaddw %ymm7, %ymm11, %ymm11 vpsubw %ymm12, %ymm3, %ymm7 vpaddw %ymm3, %ymm12, %ymm12 vpsubw %ymm5, %ymm4, %ymm3 vpaddw %ymm4, %ymm5, %ymm4 vpsubw %ymm13, %ymm6, %ymm5 vpaddw %ymm6, %ymm13, %ymm6 vpaddw %ymm7, %ymm8, %ymm7 vpsubw %ymm8, %ymm12, %ymm12 vpaddw %ymm10, %ymm9, %ymm8 vpsubw %ymm9, %ymm11, %ymm9 vpaddw %ymm5, %ymm1, %ymm5 vpsubw %ymm1, %ymm6, %ymm6 vpaddw %ymm3, %ymm2, %ymm13 vpsubw %ymm2, %ymm4, %ymm2 vmovdqu 408(%rsi), %ymm3 vmovdqu 440(%rsi), %ymm4 vperm2i128 $32, %ymm7, %ymm12, %ymm10 vperm2i128 $49, %ymm7, %ymm12, %ymm11 vperm2i128 $32, %ymm8, %ymm9, %ymm1 vperm2i128 $49, %ymm8, %ymm9, %ymm12 vperm2i128 $32, %ymm5, %ymm6, %ymm8 vperm2i128 $49, %ymm5, %ymm6, %ymm5 vperm2i128 $32, %ymm13, %ymm2, %ymm6 vperm2i128 $49, %ymm13, %ymm2, %ymm13 vpmullw %ymm8, %ymm3, %ymm7 vpmulhw %ymm8, %ymm4, %ymm14 vpmullw %ymm5, %ymm3, %ymm9 vpmulhw %ymm5, %ymm4, %ymm8 vpmullw %ymm6, %ymm3, %ymm5 vpmulhw %ymm6, %ymm4, %ymm2 vpmullw %ymm13, %ymm3, %ymm6 vpmulhw %ymm13, %ymm4, %ymm13 vpmulhw %ymm0, %ymm7, %ymm3 vpmulhw %ymm0, %ymm9, %ymm4 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm8, %ymm11, %ymm7 vpaddw %ymm11, %ymm8, %ymm8 vpsubw %ymm14, %ymm10, %ymm9 vpaddw %ymm10, %ymm14, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm2, %ymm1, %ymm13 vpaddw %ymm1, %ymm2, %ymm1 vpaddw %ymm9, %ymm3, %ymm2 vpsubw %ymm3, %ymm10, %ymm9 vpaddw %ymm7, %ymm4, %ymm3 vpsubw %ymm4, %ymm8, %ymm4 vpaddw %ymm13, %ymm5, %ymm7 vpsubw %ymm5, %ymm1, %ymm13 vpaddw %ymm11, %ymm6, %ymm11 vpsubw %ymm6, %ymm12, %ymm14 vmovdqu 472(%rsi), %ymm1 vmovdqu 504(%rsi), %ymm10 vpunpcklqdq %ymm2, %ymm9, %ymm5 vpunpckhqdq %ymm2, %ymm9, %ymm12 vpunpcklqdq %ymm3, %ymm4, %ymm8 vpunpckhqdq %ymm3, %ymm4, %ymm6 vpunpcklqdq %ymm7, %ymm13, %ymm2 vpunpckhqdq %ymm7, %ymm13, %ymm4 vpunpcklqdq %ymm11, %ymm14, %ymm3 vpunpckhqdq %ymm11, %ymm14, %ymm7 vpmullw %ymm2, %ymm1, %ymm11 vpmulhw %ymm2, %ymm10, %ymm13 vpmullw %ymm4, %ymm1, %ymm14 vpmulhw %ymm4, %ymm10, %ymm4 vpmullw %ymm3, %ymm1, %ymm2 vpmulhw %ymm3, %ymm10, %ymm9 vpmullw %ymm7, %ymm1, %ymm3 vpmulhw %ymm7, %ymm10, %ymm7 vpmulhw %ymm0, %ymm11, %ymm10 vpmulhw %ymm0, %ymm14, %ymm1 vpmulhw %ymm0, %ymm2, %ymm2 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm4, %ymm12, %ymm11 vpaddw %ymm12, %ymm4, %ymm4 vpsubw %ymm13, %ymm5, %ymm12 vpaddw %ymm5, %ymm13, %ymm13 vpsubw %ymm7, %ymm6, %ymm5 vpaddw %ymm6, %ymm7, %ymm6 vpsubw %ymm9, %ymm8, %ymm7 vpaddw %ymm8, %ymm9, %ymm8 vpaddw %ymm12, %ymm10, %ymm9 vpsubw %ymm10, %ymm13, %ymm12 vpaddw %ymm11, %ymm1, %ymm10 vpsubw %ymm1, %ymm4, %ymm4 vpaddw %ymm7, %ymm2, %ymm7 vpsubw %ymm2, %ymm8, %ymm2 vpaddw %ymm5, %ymm3, %ymm13 vpsubw %ymm3, %ymm6, %ymm6 vmovdqu 536(%rsi), %ymm3 vmovdqu 568(%rsi), %ymm5 vmovsldup %ymm9, %ymm1 vpblendd $-86, %ymm1, %ymm12, %ymm11 vpsrlq $32, %ymm12, %ymm1 vpblendd $-86, %ymm9, %ymm1, %ymm8 vmovsldup %ymm10, %ymm1 vpblendd $-86, %ymm1, %ymm4, %ymm1 vpsrlq $32, %ymm4, %ymm4 vpblendd $-86, %ymm10, %ymm4, %ymm12 vmovsldup %ymm7, %ymm4 vpblendd $-86, %ymm4, %ymm2, %ymm9 vpsrlq $32, %ymm2, %ymm2 vpblendd $-86, %ymm7, %ymm2, %ymm7 vmovsldup %ymm13, %ymm2 vpblendd $-86, %ymm2, %ymm6, %ymm2 vpsrlq $32, %ymm6, %ymm4 vpblendd $-86, %ymm13, %ymm4, %ymm13 vpmullw %ymm9, %ymm3, %ymm4 vpmulhw %ymm9, %ymm5, %ymm10 vpmullw %ymm7, %ymm3, %ymm14 vpmulhw %ymm7, %ymm5, %ymm9 vpmullw %ymm2, %ymm3, %ymm6 vpmulhw %ymm2, %ymm5, %ymm2 vpmullw %ymm13, %ymm3, %ymm7 vpmulhw %ymm13, %ymm5, %ymm13 vpmulhw %ymm0, %ymm4, %ymm3 vpmulhw %ymm0, %ymm14, %ymm4 vpmulhw %ymm0, %ymm6, %ymm5 vpmulhw %ymm0, %ymm7, %ymm6 vpsubw %ymm9, %ymm8, %ymm7 vpaddw %ymm8, %ymm9, %ymm8 vpsubw %ymm10, %ymm11, %ymm9 vpaddw %ymm11, %ymm10, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm2, %ymm1, %ymm13 vpaddw %ymm1, %ymm2, %ymm1 vpaddw %ymm9, %ymm3, %ymm2 vpsubw %ymm3, %ymm10, %ymm9 vpaddw %ymm7, %ymm4, %ymm3 vpsubw %ymm4, %ymm8, %ymm4 vpaddw %ymm13, %ymm5, %ymm7 vpsubw %ymm5, %ymm1, %ymm13 vpaddw %ymm11, %ymm6, %ymm11 vpsubw %ymm6, %ymm12, %ymm14 vmovdqu 600(%rsi), %ymm5 vmovdqu 632(%rsi), %ymm6 vpslld $16, %ymm2, %ymm1 vpblendw $-86, %ymm1, %ymm9, %ymm10 vpsrld $16, %ymm9, %ymm1 vpblendw $-86, %ymm2, %ymm1, %ymm8 vpslld $16, %ymm3, %ymm1 vpblendw $-86, %ymm1, %ymm4, %ymm1 vpsrld $16, %ymm4, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm12 vpslld $16, %ymm7, %ymm2 vpblendw $-86, %ymm2, %ymm13, %ymm4 vpsrld $16, %ymm13, %ymm2 vpblendw $-86, %ymm7, %ymm2, %ymm7 vpslld $16, %ymm11, %ymm2 vpblendw $-86, %ymm2, %ymm14, %ymm2 vpsrld $16, %ymm14, %ymm3 vpblendw $-86, %ymm11, %ymm3, %ymm13 vpmullw %ymm4, %ymm5, %ymm3 vpmulhw %ymm4, %ymm6, %ymm11 vpmullw %ymm7, %ymm5, %ymm4 vpmulhw %ymm7, %ymm6, %ymm9 vpmullw %ymm2, %ymm5, %ymm7 vpmulhw %ymm2, %ymm6, %ymm2 vpmullw %ymm13, %ymm5, %ymm14 vpmulhw %ymm13, %ymm6, %ymm13 vpmulhw %ymm0, %ymm3, %ymm3 vpmulhw %ymm0, %ymm4, %ymm4 vpmulhw %ymm0, %ymm7, %ymm5 vpmulhw %ymm0, %ymm14, %ymm6 vpsubw %ymm9, %ymm8, %ymm7 vpaddw %ymm8, %ymm9, %ymm8 vpsubw %ymm11, %ymm10, %ymm9 vpaddw %ymm10, %ymm11, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm2, %ymm1, %ymm13 vpaddw %ymm1, %ymm2, %ymm1 vpaddw %ymm9, %ymm3, %ymm2 vpsubw %ymm3, %ymm10, %ymm3 vpaddw %ymm7, %ymm4, %ymm7 vpsubw %ymm4, %ymm8, %ymm4 vpaddw %ymm13, %ymm5, %ymm8 vpsubw %ymm5, %ymm1, %ymm1 vpaddw %ymm11, %ymm6, %ymm5 vpsubw %ymm6, %ymm12, %ymm10 vmovdqu 664(%rsi), %ymm9 vmovdqu 696(%rsi), %ymm13 vmovdqu 728(%rsi), %ymm11 vmovdqu 760(%rsi), %ymm6 vpmullw %ymm1, %ymm9, %ymm14 vpmulhw %ymm1, %ymm13, %ymm12 vpmullw %ymm10, %ymm9, %ymm9 vpmulhw %ymm10, %ymm13, %ymm13 vpmullw %ymm8, %ymm11, %ymm10 vpmulhw %ymm8, %ymm6, %ymm1 vpmullw %ymm5, %ymm11, %ymm11 vpmulhw %ymm5, %ymm6, %ymm5 vpmulhw %ymm0, %ymm14, %ymm6 vpmulhw %ymm0, %ymm9, %ymm8 vpmulhw %ymm0, %ymm10, %ymm9 vpmulhw %ymm0, %ymm11, %ymm10 vpsubw %ymm13, %ymm4, %ymm11 vpaddw %ymm4, %ymm13, %ymm4 vpsubw %ymm12, %ymm3, %ymm13 vpaddw %ymm3, %ymm12, %ymm3 vpsubw %ymm5, %ymm7, %ymm12 vpaddw %ymm7, %ymm5, %ymm5 vpsubw %ymm1, %ymm2, %ymm7 vpaddw %ymm2, %ymm1, %ymm1 vpaddw %ymm13, %ymm6, %ymm2 vpsubw %ymm6, %ymm3, %ymm3 vpaddw %ymm11, %ymm8, %ymm6 vpsubw %ymm8, %ymm4, %ymm4 vpaddw %ymm7, %ymm9, %ymm7 vpsubw %ymm9, %ymm1, %ymm8 vpaddw %ymm12, %ymm10, %ymm1 vpsubw %ymm10, %ymm5, %ymm5 vmovdqu glob_data + 384(%rip), %ymm9 vpmulhw %ymm9, %ymm3, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm3, %ymm3 vpmulhw %ymm9, %ymm4, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm4, %ymm4 vpmulhw %ymm9, %ymm8, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm8, %ymm8 vpmulhw %ymm9, %ymm5, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm5, %ymm5 vpmulhw %ymm9, %ymm2, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm2, %ymm2 vpmulhw %ymm9, %ymm6, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm6, %ymm6 vpmulhw %ymm9, %ymm7, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm7, %ymm7 vpmulhw %ymm9, %ymm1, %ymm9 vpsraw $10, %ymm9, %ymm9 vpmullw %ymm0, %ymm9, %ymm0 vpsubw %ymm0, %ymm1, %ymm0 vmovdqu %ymm3, 256(%rcx) vmovdqu %ymm4, 288(%rcx) vmovdqu %ymm2, 320(%rcx) vmovdqu %ymm6, 352(%rcx) vmovdqu %ymm8, 384(%rcx) vmovdqu %ymm5, 416(%rcx) vmovdqu %ymm7, 448(%rcx) vmovdqu %ymm0, 480(%rcx) jmp *%rdi L_poly_invntt$1: leaq glob_data + 480(%rip), %rsi vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu (%rsi), %ymm12 vmovdqu 64(%rsi), %ymm1 vmovdqu 32(%rsi), %ymm2 vmovdqu 96(%rsi), %ymm5 vmovdqu (%rcx), %ymm3 vmovdqu 32(%rcx), %ymm4 vmovdqu 64(%rcx), %ymm15 vmovdqu 96(%rcx), %ymm11 vmovdqu 128(%rcx), %ymm7 vmovdqu 160(%rcx), %ymm8 vmovdqu 192(%rcx), %ymm13 vmovdqu 224(%rcx), %ymm14 vpsubw %ymm15, %ymm3, %ymm6 vpsubw %ymm11, %ymm4, %ymm9 vpsubw %ymm13, %ymm7, %ymm10 vpaddw %ymm3, %ymm15, %ymm3 vpaddw %ymm4, %ymm11, %ymm4 vpmullw %ymm6, %ymm12, %ymm11 vpaddw %ymm7, %ymm13, %ymm7 vpmullw %ymm9, %ymm12, %ymm12 vpsubw %ymm14, %ymm8, %ymm13 vpaddw %ymm8, %ymm14, %ymm8 vpmullw %ymm10, %ymm1, %ymm14 vpmullw %ymm13, %ymm1, %ymm1 vpmulhw %ymm6, %ymm2, %ymm6 vpmulhw %ymm9, %ymm2, %ymm2 vpmulhw %ymm10, %ymm5, %ymm9 vpmulhw %ymm13, %ymm5, %ymm5 vpmulhw %ymm11, %ymm0, %ymm10 vpmulhw %ymm12, %ymm0, %ymm11 vpmulhw %ymm14, %ymm0, %ymm12 vpmulhw %ymm1, %ymm0, %ymm1 vpsubw %ymm10, %ymm6, %ymm6 vpsubw %ymm11, %ymm2, %ymm11 vpsubw %ymm12, %ymm9, %ymm9 vpsubw %ymm1, %ymm5, %ymm13 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu 128(%rsi), %ymm2 vmovdqu 160(%rsi), %ymm5 vpmulhw %ymm1, %ymm3, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm3, %ymm10 vpmulhw %ymm1, %ymm4, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm12 vpmulhw %ymm1, %ymm7, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm7, %ymm7 vpmulhw %ymm1, %ymm8, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm8, %ymm8 vpsubw %ymm7, %ymm10, %ymm15 vpsubw %ymm8, %ymm12, %ymm3 vpsubw %ymm9, %ymm6, %ymm4 vpaddw %ymm10, %ymm7, %ymm7 vpaddw %ymm12, %ymm8, %ymm8 vpmullw %ymm15, %ymm2, %ymm10 vpaddw %ymm6, %ymm9, %ymm9 vpmullw %ymm3, %ymm2, %ymm6 vpsubw %ymm13, %ymm11, %ymm12 vpaddw %ymm11, %ymm13, %ymm11 vpmullw %ymm4, %ymm2, %ymm13 vpmullw %ymm12, %ymm2, %ymm14 vpmulhw %ymm15, %ymm5, %ymm2 vpmulhw %ymm3, %ymm5, %ymm3 vpmulhw %ymm4, %ymm5, %ymm4 vpmulhw %ymm12, %ymm5, %ymm5 vpmulhw %ymm10, %ymm0, %ymm10 vpmulhw %ymm6, %ymm0, %ymm12 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm14, %ymm0, %ymm6 vpsubw %ymm10, %ymm2, %ymm2 vpsubw %ymm12, %ymm3, %ymm3 vpsubw %ymm13, %ymm4, %ymm4 vpsubw %ymm6, %ymm5, %ymm5 vpslld $16, %ymm8, %ymm6 vpblendw $-86, %ymm6, %ymm7, %ymm6 vpsrld $16, %ymm7, %ymm7 vpblendw $-86, %ymm8, %ymm7, %ymm7 vpslld $16, %ymm11, %ymm8 vpblendw $-86, %ymm8, %ymm9, %ymm10 vpsrld $16, %ymm9, %ymm8 vpblendw $-86, %ymm11, %ymm8, %ymm11 vpslld $16, %ymm3, %ymm8 vpblendw $-86, %ymm8, %ymm2, %ymm8 vpsrld $16, %ymm2, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm9 vpslld $16, %ymm5, %ymm2 vpblendw $-86, %ymm2, %ymm4, %ymm12 vpsrld $16, %ymm4, %ymm2 vpblendw $-86, %ymm5, %ymm2, %ymm13 vmovdqu 192(%rsi), %ymm2 vmovdqu 224(%rsi), %ymm5 vpsubw %ymm7, %ymm6, %ymm15 vpsubw %ymm11, %ymm10, %ymm3 vpsubw %ymm9, %ymm8, %ymm4 vpaddw %ymm6, %ymm7, %ymm6 vpaddw %ymm10, %ymm11, %ymm7 vpmullw %ymm15, %ymm2, %ymm10 vpaddw %ymm8, %ymm9, %ymm8 vpmullw %ymm3, %ymm2, %ymm9 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpmullw %ymm4, %ymm2, %ymm13 vpmullw %ymm11, %ymm2, %ymm14 vpmulhw %ymm15, %ymm5, %ymm2 vpmulhw %ymm3, %ymm5, %ymm3 vpmulhw %ymm4, %ymm5, %ymm4 vpmulhw %ymm11, %ymm5, %ymm5 vpmulhw %ymm10, %ymm0, %ymm10 vpmulhw %ymm9, %ymm0, %ymm11 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm14, %ymm0, %ymm9 vpsubw %ymm10, %ymm2, %ymm2 vpsubw %ymm11, %ymm3, %ymm3 vpsubw %ymm13, %ymm4, %ymm4 vpsubw %ymm9, %ymm5, %ymm5 vpmulhw %ymm1, %ymm6, %ymm9 vpsraw $10, %ymm9, %ymm9 vpmullw %ymm0, %ymm9, %ymm9 vpsubw %ymm9, %ymm6, %ymm6 vmovsldup %ymm7, %ymm9 vpblendd $-86, %ymm9, %ymm6, %ymm9 vpsrlq $32, %ymm6, %ymm6 vpblendd $-86, %ymm7, %ymm6, %ymm10 vmovsldup %ymm12, %ymm6 vpblendd $-86, %ymm6, %ymm8, %ymm11 vpsrlq $32, %ymm8, %ymm6 vpblendd $-86, %ymm12, %ymm6, %ymm14 vmovsldup %ymm3, %ymm6 vpblendd $-86, %ymm6, %ymm2, %ymm12 vpsrlq $32, %ymm2, %ymm2 vpblendd $-86, %ymm3, %ymm2, %ymm13 vmovsldup %ymm5, %ymm2 vpblendd $-86, %ymm2, %ymm4, %ymm2 vpsrlq $32, %ymm4, %ymm3 vpblendd $-86, %ymm5, %ymm3, %ymm3 vmovdqu 256(%rsi), %ymm4 vmovdqu 288(%rsi), %ymm5 vpsubw %ymm10, %ymm9, %ymm6 vpsubw %ymm14, %ymm11, %ymm7 vpsubw %ymm13, %ymm12, %ymm8 vpaddw %ymm9, %ymm10, %ymm9 vpaddw %ymm11, %ymm14, %ymm10 vpmullw %ymm6, %ymm4, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpmullw %ymm7, %ymm4, %ymm13 vpsubw %ymm3, %ymm2, %ymm14 vpaddw %ymm2, %ymm3, %ymm2 vpmullw %ymm8, %ymm4, %ymm3 vpmullw %ymm14, %ymm4, %ymm4 vpmulhw %ymm6, %ymm5, %ymm6 vpmulhw %ymm7, %ymm5, %ymm7 vpmulhw %ymm8, %ymm5, %ymm8 vpmulhw %ymm14, %ymm5, %ymm5 vpmulhw %ymm11, %ymm0, %ymm11 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm3, %ymm0, %ymm3 vpmulhw %ymm4, %ymm0, %ymm4 vpsubw %ymm11, %ymm6, %ymm6 vpsubw %ymm13, %ymm7, %ymm7 vpsubw %ymm3, %ymm8, %ymm3 vpsubw %ymm4, %ymm5, %ymm4 vpmulhw %ymm1, %ymm9, %ymm5 vpsraw $10, %ymm5, %ymm5 vpmullw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm9, %ymm8 vpunpcklqdq %ymm10, %ymm8, %ymm5 vpunpckhqdq %ymm10, %ymm8, %ymm8 vpunpcklqdq %ymm2, %ymm12, %ymm9 vpunpckhqdq %ymm2, %ymm12, %ymm2 vpunpcklqdq %ymm7, %ymm6, %ymm10 vpunpckhqdq %ymm7, %ymm6, %ymm6 vpunpcklqdq %ymm4, %ymm3, %ymm7 vpunpckhqdq %ymm4, %ymm3, %ymm3 vmovdqu 320(%rsi), %ymm4 vmovdqu 352(%rsi), %ymm11 vpsubw %ymm8, %ymm5, %ymm12 vpsubw %ymm2, %ymm9, %ymm13 vpsubw %ymm6, %ymm10, %ymm14 vpaddw %ymm5, %ymm8, %ymm5 vpaddw %ymm9, %ymm2, %ymm2 vpmullw %ymm12, %ymm4, %ymm8 vpaddw %ymm10, %ymm6, %ymm6 vpmullw %ymm13, %ymm4, %ymm9 vpsubw %ymm3, %ymm7, %ymm10 vpaddw %ymm7, %ymm3, %ymm3 vpmullw %ymm14, %ymm4, %ymm7 vpmullw %ymm10, %ymm4, %ymm4 vpmulhw %ymm12, %ymm11, %ymm12 vpmulhw %ymm13, %ymm11, %ymm13 vpmulhw %ymm14, %ymm11, %ymm14 vpmulhw %ymm10, %ymm11, %ymm10 vpmulhw %ymm8, %ymm0, %ymm8 vpmulhw %ymm9, %ymm0, %ymm9 vpmulhw %ymm7, %ymm0, %ymm7 vpmulhw %ymm4, %ymm0, %ymm4 vpsubw %ymm8, %ymm12, %ymm8 vpsubw %ymm9, %ymm13, %ymm9 vpsubw %ymm7, %ymm14, %ymm7 vpsubw %ymm4, %ymm10, %ymm4 vpmulhw %ymm1, %ymm5, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm5, %ymm10 vperm2i128 $32, %ymm2, %ymm10, %ymm5 vperm2i128 $49, %ymm2, %ymm10, %ymm2 vperm2i128 $32, %ymm3, %ymm6, %ymm10 vperm2i128 $49, %ymm3, %ymm6, %ymm3 vperm2i128 $32, %ymm9, %ymm8, %ymm6 vperm2i128 $49, %ymm9, %ymm8, %ymm8 vperm2i128 $32, %ymm4, %ymm7, %ymm9 vperm2i128 $49, %ymm4, %ymm7, %ymm4 vpbroadcastd 384(%rsi), %ymm7 vpbroadcastd 388(%rsi), %ymm11 vpsubw %ymm2, %ymm5, %ymm12 vpsubw %ymm3, %ymm10, %ymm13 vpsubw %ymm8, %ymm6, %ymm14 vpaddw %ymm5, %ymm2, %ymm2 vpaddw %ymm10, %ymm3, %ymm3 vpmullw %ymm12, %ymm7, %ymm5 vpaddw %ymm6, %ymm8, %ymm6 vpmullw %ymm13, %ymm7, %ymm8 vpsubw %ymm4, %ymm9, %ymm10 vpaddw %ymm9, %ymm4, %ymm4 vpmullw %ymm14, %ymm7, %ymm9 vpmullw %ymm10, %ymm7, %ymm7 vpmulhw %ymm12, %ymm11, %ymm12 vpmulhw %ymm13, %ymm11, %ymm13 vpmulhw %ymm14, %ymm11, %ymm14 vpmulhw %ymm10, %ymm11, %ymm10 vpmulhw %ymm5, %ymm0, %ymm5 vpmulhw %ymm8, %ymm0, %ymm8 vpmulhw %ymm9, %ymm0, %ymm9 vpmulhw %ymm7, %ymm0, %ymm7 vpsubw %ymm5, %ymm12, %ymm5 vpsubw %ymm8, %ymm13, %ymm8 vpsubw %ymm9, %ymm14, %ymm9 vpsubw %ymm7, %ymm10, %ymm7 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm1 vpsubw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, (%rcx) vmovdqu %ymm3, 32(%rcx) vmovdqu %ymm6, 64(%rcx) vmovdqu %ymm4, 96(%rcx) vmovdqu %ymm5, 128(%rcx) vmovdqu %ymm8, 160(%rcx) vmovdqu %ymm9, 192(%rcx) vmovdqu %ymm7, 224(%rcx) vmovdqu 392(%rsi), %ymm12 vmovdqu 456(%rsi), %ymm1 vmovdqu 424(%rsi), %ymm2 vmovdqu 488(%rsi), %ymm5 vmovdqu 256(%rcx), %ymm3 vmovdqu 288(%rcx), %ymm4 vmovdqu 320(%rcx), %ymm15 vmovdqu 352(%rcx), %ymm11 vmovdqu 384(%rcx), %ymm7 vmovdqu 416(%rcx), %ymm8 vmovdqu 448(%rcx), %ymm13 vmovdqu 480(%rcx), %ymm14 vpsubw %ymm15, %ymm3, %ymm6 vpsubw %ymm11, %ymm4, %ymm9 vpsubw %ymm13, %ymm7, %ymm10 vpaddw %ymm3, %ymm15, %ymm3 vpaddw %ymm4, %ymm11, %ymm4 vpmullw %ymm6, %ymm12, %ymm11 vpaddw %ymm7, %ymm13, %ymm7 vpmullw %ymm9, %ymm12, %ymm12 vpsubw %ymm14, %ymm8, %ymm13 vpaddw %ymm8, %ymm14, %ymm8 vpmullw %ymm10, %ymm1, %ymm14 vpmullw %ymm13, %ymm1, %ymm1 vpmulhw %ymm6, %ymm2, %ymm6 vpmulhw %ymm9, %ymm2, %ymm2 vpmulhw %ymm10, %ymm5, %ymm9 vpmulhw %ymm13, %ymm5, %ymm5 vpmulhw %ymm11, %ymm0, %ymm10 vpmulhw %ymm12, %ymm0, %ymm11 vpmulhw %ymm14, %ymm0, %ymm12 vpmulhw %ymm1, %ymm0, %ymm1 vpsubw %ymm10, %ymm6, %ymm6 vpsubw %ymm11, %ymm2, %ymm11 vpsubw %ymm12, %ymm9, %ymm9 vpsubw %ymm1, %ymm5, %ymm13 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu 520(%rsi), %ymm2 vmovdqu 552(%rsi), %ymm5 vpmulhw %ymm1, %ymm3, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm3, %ymm10 vpmulhw %ymm1, %ymm4, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm12 vpmulhw %ymm1, %ymm7, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm7, %ymm7 vpmulhw %ymm1, %ymm8, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm8, %ymm8 vpsubw %ymm7, %ymm10, %ymm15 vpsubw %ymm8, %ymm12, %ymm3 vpsubw %ymm9, %ymm6, %ymm4 vpaddw %ymm10, %ymm7, %ymm7 vpaddw %ymm12, %ymm8, %ymm8 vpmullw %ymm15, %ymm2, %ymm10 vpaddw %ymm6, %ymm9, %ymm9 vpmullw %ymm3, %ymm2, %ymm6 vpsubw %ymm13, %ymm11, %ymm12 vpaddw %ymm11, %ymm13, %ymm11 vpmullw %ymm4, %ymm2, %ymm13 vpmullw %ymm12, %ymm2, %ymm14 vpmulhw %ymm15, %ymm5, %ymm2 vpmulhw %ymm3, %ymm5, %ymm3 vpmulhw %ymm4, %ymm5, %ymm4 vpmulhw %ymm12, %ymm5, %ymm5 vpmulhw %ymm10, %ymm0, %ymm10 vpmulhw %ymm6, %ymm0, %ymm12 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm14, %ymm0, %ymm6 vpsubw %ymm10, %ymm2, %ymm2 vpsubw %ymm12, %ymm3, %ymm3 vpsubw %ymm13, %ymm4, %ymm4 vpsubw %ymm6, %ymm5, %ymm5 vpslld $16, %ymm8, %ymm6 vpblendw $-86, %ymm6, %ymm7, %ymm6 vpsrld $16, %ymm7, %ymm7 vpblendw $-86, %ymm8, %ymm7, %ymm7 vpslld $16, %ymm11, %ymm8 vpblendw $-86, %ymm8, %ymm9, %ymm10 vpsrld $16, %ymm9, %ymm8 vpblendw $-86, %ymm11, %ymm8, %ymm11 vpslld $16, %ymm3, %ymm8 vpblendw $-86, %ymm8, %ymm2, %ymm8 vpsrld $16, %ymm2, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm9 vpslld $16, %ymm5, %ymm2 vpblendw $-86, %ymm2, %ymm4, %ymm12 vpsrld $16, %ymm4, %ymm2 vpblendw $-86, %ymm5, %ymm2, %ymm13 vmovdqu 584(%rsi), %ymm2 vmovdqu 616(%rsi), %ymm5 vpsubw %ymm7, %ymm6, %ymm15 vpsubw %ymm11, %ymm10, %ymm3 vpsubw %ymm9, %ymm8, %ymm4 vpaddw %ymm6, %ymm7, %ymm6 vpaddw %ymm10, %ymm11, %ymm7 vpmullw %ymm15, %ymm2, %ymm10 vpaddw %ymm8, %ymm9, %ymm8 vpmullw %ymm3, %ymm2, %ymm9 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpmullw %ymm4, %ymm2, %ymm13 vpmullw %ymm11, %ymm2, %ymm14 vpmulhw %ymm15, %ymm5, %ymm2 vpmulhw %ymm3, %ymm5, %ymm3 vpmulhw %ymm4, %ymm5, %ymm4 vpmulhw %ymm11, %ymm5, %ymm5 vpmulhw %ymm10, %ymm0, %ymm10 vpmulhw %ymm9, %ymm0, %ymm11 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm14, %ymm0, %ymm9 vpsubw %ymm10, %ymm2, %ymm2 vpsubw %ymm11, %ymm3, %ymm3 vpsubw %ymm13, %ymm4, %ymm4 vpsubw %ymm9, %ymm5, %ymm5 vpmulhw %ymm1, %ymm6, %ymm9 vpsraw $10, %ymm9, %ymm9 vpmullw %ymm0, %ymm9, %ymm9 vpsubw %ymm9, %ymm6, %ymm6 vmovsldup %ymm7, %ymm9 vpblendd $-86, %ymm9, %ymm6, %ymm9 vpsrlq $32, %ymm6, %ymm6 vpblendd $-86, %ymm7, %ymm6, %ymm10 vmovsldup %ymm12, %ymm6 vpblendd $-86, %ymm6, %ymm8, %ymm11 vpsrlq $32, %ymm8, %ymm6 vpblendd $-86, %ymm12, %ymm6, %ymm14 vmovsldup %ymm3, %ymm6 vpblendd $-86, %ymm6, %ymm2, %ymm12 vpsrlq $32, %ymm2, %ymm2 vpblendd $-86, %ymm3, %ymm2, %ymm13 vmovsldup %ymm5, %ymm2 vpblendd $-86, %ymm2, %ymm4, %ymm2 vpsrlq $32, %ymm4, %ymm3 vpblendd $-86, %ymm5, %ymm3, %ymm3 vmovdqu 648(%rsi), %ymm4 vmovdqu 680(%rsi), %ymm5 vpsubw %ymm10, %ymm9, %ymm6 vpsubw %ymm14, %ymm11, %ymm7 vpsubw %ymm13, %ymm12, %ymm8 vpaddw %ymm9, %ymm10, %ymm9 vpaddw %ymm11, %ymm14, %ymm10 vpmullw %ymm6, %ymm4, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpmullw %ymm7, %ymm4, %ymm13 vpsubw %ymm3, %ymm2, %ymm14 vpaddw %ymm2, %ymm3, %ymm2 vpmullw %ymm8, %ymm4, %ymm3 vpmullw %ymm14, %ymm4, %ymm4 vpmulhw %ymm6, %ymm5, %ymm6 vpmulhw %ymm7, %ymm5, %ymm7 vpmulhw %ymm8, %ymm5, %ymm8 vpmulhw %ymm14, %ymm5, %ymm5 vpmulhw %ymm11, %ymm0, %ymm11 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm3, %ymm0, %ymm3 vpmulhw %ymm4, %ymm0, %ymm4 vpsubw %ymm11, %ymm6, %ymm6 vpsubw %ymm13, %ymm7, %ymm7 vpsubw %ymm3, %ymm8, %ymm3 vpsubw %ymm4, %ymm5, %ymm4 vpmulhw %ymm1, %ymm9, %ymm5 vpsraw $10, %ymm5, %ymm5 vpmullw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm9, %ymm8 vpunpcklqdq %ymm10, %ymm8, %ymm5 vpunpckhqdq %ymm10, %ymm8, %ymm8 vpunpcklqdq %ymm2, %ymm12, %ymm9 vpunpckhqdq %ymm2, %ymm12, %ymm2 vpunpcklqdq %ymm7, %ymm6, %ymm10 vpunpckhqdq %ymm7, %ymm6, %ymm6 vpunpcklqdq %ymm4, %ymm3, %ymm7 vpunpckhqdq %ymm4, %ymm3, %ymm3 vmovdqu 712(%rsi), %ymm4 vmovdqu 744(%rsi), %ymm11 vpsubw %ymm8, %ymm5, %ymm12 vpsubw %ymm2, %ymm9, %ymm13 vpsubw %ymm6, %ymm10, %ymm14 vpaddw %ymm5, %ymm8, %ymm5 vpaddw %ymm9, %ymm2, %ymm2 vpmullw %ymm12, %ymm4, %ymm8 vpaddw %ymm10, %ymm6, %ymm6 vpmullw %ymm13, %ymm4, %ymm9 vpsubw %ymm3, %ymm7, %ymm10 vpaddw %ymm7, %ymm3, %ymm3 vpmullw %ymm14, %ymm4, %ymm7 vpmullw %ymm10, %ymm4, %ymm4 vpmulhw %ymm12, %ymm11, %ymm12 vpmulhw %ymm13, %ymm11, %ymm13 vpmulhw %ymm14, %ymm11, %ymm14 vpmulhw %ymm10, %ymm11, %ymm10 vpmulhw %ymm8, %ymm0, %ymm8 vpmulhw %ymm9, %ymm0, %ymm9 vpmulhw %ymm7, %ymm0, %ymm7 vpmulhw %ymm4, %ymm0, %ymm4 vpsubw %ymm8, %ymm12, %ymm8 vpsubw %ymm9, %ymm13, %ymm9 vpsubw %ymm7, %ymm14, %ymm7 vpsubw %ymm4, %ymm10, %ymm4 vpmulhw %ymm1, %ymm5, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm5, %ymm10 vperm2i128 $32, %ymm2, %ymm10, %ymm5 vperm2i128 $49, %ymm2, %ymm10, %ymm2 vperm2i128 $32, %ymm3, %ymm6, %ymm10 vperm2i128 $49, %ymm3, %ymm6, %ymm3 vperm2i128 $32, %ymm9, %ymm8, %ymm6 vperm2i128 $49, %ymm9, %ymm8, %ymm8 vperm2i128 $32, %ymm4, %ymm7, %ymm9 vperm2i128 $49, %ymm4, %ymm7, %ymm4 vpbroadcastd 776(%rsi), %ymm7 vpbroadcastd 780(%rsi), %ymm11 vpsubw %ymm2, %ymm5, %ymm12 vpsubw %ymm3, %ymm10, %ymm13 vpsubw %ymm8, %ymm6, %ymm14 vpaddw %ymm5, %ymm2, %ymm2 vpaddw %ymm10, %ymm3, %ymm3 vpmullw %ymm12, %ymm7, %ymm5 vpaddw %ymm6, %ymm8, %ymm6 vpmullw %ymm13, %ymm7, %ymm8 vpsubw %ymm4, %ymm9, %ymm10 vpaddw %ymm9, %ymm4, %ymm4 vpmullw %ymm14, %ymm7, %ymm9 vpmullw %ymm10, %ymm7, %ymm7 vpmulhw %ymm12, %ymm11, %ymm12 vpmulhw %ymm13, %ymm11, %ymm13 vpmulhw %ymm14, %ymm11, %ymm14 vpmulhw %ymm10, %ymm11, %ymm10 vpmulhw %ymm5, %ymm0, %ymm5 vpmulhw %ymm8, %ymm0, %ymm8 vpmulhw %ymm9, %ymm0, %ymm9 vpmulhw %ymm7, %ymm0, %ymm7 vpsubw %ymm5, %ymm12, %ymm5 vpsubw %ymm8, %ymm13, %ymm8 vpsubw %ymm9, %ymm14, %ymm9 vpsubw %ymm7, %ymm10, %ymm7 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm1 vpsubw %ymm1, %ymm2, %ymm10 vmovdqu %ymm5, 384(%rcx) vmovdqu %ymm8, 416(%rcx) vmovdqu %ymm9, 448(%rcx) vmovdqu %ymm7, 480(%rcx) vpbroadcastd 784(%rsi), %ymm1 vpbroadcastd 788(%rsi), %ymm2 vmovdqu %ymm4, %ymm7 vmovdqu %ymm3, %ymm4 vmovdqu %ymm10, %ymm3 vmovdqu (%rcx), %ymm9 vmovdqu 32(%rcx), %ymm13 vmovdqu 64(%rcx), %ymm5 vmovdqu 96(%rcx), %ymm8 vpsubw %ymm3, %ymm9, %ymm10 vpsubw %ymm4, %ymm13, %ymm11 vpsubw %ymm6, %ymm5, %ymm12 vpaddw %ymm9, %ymm3, %ymm3 vpaddw %ymm13, %ymm4, %ymm4 vpmullw %ymm10, %ymm1, %ymm13 vpaddw %ymm5, %ymm6, %ymm5 vpmullw %ymm11, %ymm1, %ymm6 vpsubw %ymm7, %ymm8, %ymm14 vpaddw %ymm8, %ymm7, %ymm7 vpmullw %ymm12, %ymm1, %ymm8 vpmullw %ymm14, %ymm1, %ymm9 vpmulhw %ymm10, %ymm2, %ymm10 vpmulhw %ymm11, %ymm2, %ymm11 vpmulhw %ymm12, %ymm2, %ymm12 vpmulhw %ymm14, %ymm2, %ymm14 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm6, %ymm0, %ymm6 vpmulhw %ymm8, %ymm0, %ymm8 vpmulhw %ymm9, %ymm0, %ymm9 vpsubw %ymm13, %ymm10, %ymm10 vpsubw %ymm6, %ymm11, %ymm6 vpsubw %ymm8, %ymm12, %ymm11 vpsubw %ymm9, %ymm14, %ymm12 vmovdqu glob_data + 320(%rip), %ymm8 vmovdqu glob_data + 352(%rip), %ymm9 vmovdqu %ymm10, 256(%rcx) vmovdqu %ymm6, 288(%rcx) vmovdqu %ymm11, 320(%rcx) vmovdqu %ymm12, 352(%rcx) vpmullw %ymm3, %ymm8, %ymm6 vpmulhw %ymm3, %ymm9, %ymm3 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm3, %ymm3 vpmullw %ymm4, %ymm8, %ymm6 vpmulhw %ymm4, %ymm9, %ymm4 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm4, %ymm4 vpmullw %ymm5, %ymm8, %ymm6 vpmulhw %ymm5, %ymm9, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm5, %ymm5 vpmullw %ymm7, %ymm8, %ymm6 vpmulhw %ymm7, %ymm9, %ymm7 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm7, %ymm6 vmovdqu %ymm3, (%rcx) vmovdqu %ymm4, 32(%rcx) vmovdqu %ymm5, 64(%rcx) vmovdqu %ymm6, 96(%rcx) vmovdqu 384(%rcx), %ymm4 vmovdqu 416(%rcx), %ymm5 vmovdqu 448(%rcx), %ymm7 vmovdqu 480(%rcx), %ymm10 vmovdqu 128(%rcx), %ymm6 vmovdqu 160(%rcx), %ymm9 vmovdqu 192(%rcx), %ymm8 vmovdqu 224(%rcx), %ymm11 vpsubw %ymm4, %ymm6, %ymm12 vpsubw %ymm5, %ymm9, %ymm13 vpsubw %ymm7, %ymm8, %ymm3 vpaddw %ymm6, %ymm4, %ymm4 vpaddw %ymm9, %ymm5, %ymm5 vpmullw %ymm12, %ymm1, %ymm6 vpaddw %ymm8, %ymm7, %ymm7 vpmullw %ymm13, %ymm1, %ymm8 vpsubw %ymm10, %ymm11, %ymm9 vpaddw %ymm11, %ymm10, %ymm10 vpmullw %ymm3, %ymm1, %ymm11 vpmullw %ymm9, %ymm1, %ymm1 vpmulhw %ymm12, %ymm2, %ymm12 vpmulhw %ymm13, %ymm2, %ymm13 vpmulhw %ymm3, %ymm2, %ymm3 vpmulhw %ymm9, %ymm2, %ymm2 vpmulhw %ymm6, %ymm0, %ymm6 vpmulhw %ymm8, %ymm0, %ymm8 vpmulhw %ymm11, %ymm0, %ymm9 vpmulhw %ymm1, %ymm0, %ymm11 vpsubw %ymm6, %ymm12, %ymm1 vpsubw %ymm8, %ymm13, %ymm6 vpsubw %ymm9, %ymm3, %ymm8 vpsubw %ymm11, %ymm2, %ymm9 vmovdqu glob_data + 320(%rip), %ymm2 vmovdqu glob_data + 352(%rip), %ymm3 vmovdqu %ymm1, 384(%rcx) vmovdqu %ymm6, 416(%rcx) vmovdqu %ymm8, 448(%rcx) vmovdqu %ymm9, 480(%rcx) vpmullw %ymm4, %ymm2, %ymm1 vpmulhw %ymm4, %ymm3, %ymm4 vpmulhw %ymm0, %ymm1, %ymm1 vpsubw %ymm1, %ymm4, %ymm1 vpmullw %ymm5, %ymm2, %ymm4 vpmulhw %ymm5, %ymm3, %ymm5 vpmulhw %ymm0, %ymm4, %ymm4 vpsubw %ymm4, %ymm5, %ymm4 vpmullw %ymm7, %ymm2, %ymm5 vpmulhw %ymm7, %ymm3, %ymm6 vpmulhw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm6, %ymm5 vpmullw %ymm10, %ymm2, %ymm2 vpmulhw %ymm10, %ymm3, %ymm3 vpmulhw %ymm0, %ymm2, %ymm0 vpsubw %ymm0, %ymm3, %ymm0 vmovdqu %ymm1, 128(%rcx) vmovdqu %ymm4, 160(%rcx) vmovdqu %ymm5, 192(%rcx) vmovdqu %ymm0, 224(%rcx) jmp *%rdi L_poly_getnoise_eta1122_4x$1: movq %rax, 1440(%rsp) vmovdqu (%rcx), %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 320(%rsp) vmovdqu %ymm0, 480(%rsp) movb %dl, 32(%rsp) incb %dl movb %dl, 192(%rsp) incb %dl movb %dl, 352(%rsp) incb %dl movb %dl, 512(%rsp) leaq 640(%rsp), %rax movq %rsp, %rcx leaq 160(%rsp), %rdx leaq 320(%rsp), %rsi leaq 480(%rsp), %r11 leaq -8(%rsp), %rsp leaq L_poly_getnoise_eta1122_4x$3(%rip), %r10 movq %r10, (%rsp) jmp L_shake256_absorb4x_33$1 L_poly_getnoise_eta1122_4x$3: leaq 8(%rsp), %rsp leaq 640(%rsp), %rax movq %rsp, %rcx leaq 160(%rsp), %rdx leaq 320(%rsp), %rsi leaq 480(%rsp), %r10 movq %rcx, %r11 movq %rdx, %rbx movq %rsi, %rbp leaq -832(%rsp), %rsp leaq L_poly_getnoise_eta1122_4x$2(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L_poly_getnoise_eta1122_4x$2: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r10) movq 1440(%rsp), %rax movq %rsp, %rcx movl $1431655765, 1448(%rsp) movl $858993459, 1452(%rsp) movl $50529027, 1456(%rsp) movl $252645135, 1460(%rsp) vpbroadcastd 1448(%rsp), %ymm0 vpbroadcastd 1452(%rsp), %ymm1 vpbroadcastd 1456(%rsp), %ymm2 vpbroadcastd 1460(%rsp), %ymm3 vmovdqu (%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%rax) vmovdqu %ymm7, 32(%rax) vmovdqu %ymm6, 64(%rax) vmovdqu %ymm4, 96(%rax) vmovdqu 32(%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%rax) vmovdqu %ymm7, 160(%rax) vmovdqu %ymm6, 192(%rax) vmovdqu %ymm4, 224(%rax) vmovdqu 64(%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%rax) vmovdqu %ymm7, 288(%rax) vmovdqu %ymm6, 320(%rax) vmovdqu %ymm4, 352(%rax) vmovdqu 96(%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%rax) vmovdqu %ymm3, 416(%rax) vmovdqu %ymm2, 448(%rax) vmovdqu %ymm0, 480(%rax) leaq 160(%rsp), %rax movl $1431655765, 1460(%rsp) movl $858993459, 1456(%rsp) movl $50529027, 1452(%rsp) movl $252645135, 1448(%rsp) vpbroadcastd 1460(%rsp), %ymm0 vpbroadcastd 1456(%rsp), %ymm1 vpbroadcastd 1452(%rsp), %ymm2 vpbroadcastd 1448(%rsp), %ymm3 vmovdqu (%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%rdi) vmovdqu %ymm7, 32(%rdi) vmovdqu %ymm6, 64(%rdi) vmovdqu %ymm4, 96(%rdi) vmovdqu 32(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%rdi) vmovdqu %ymm7, 160(%rdi) vmovdqu %ymm6, 192(%rdi) vmovdqu %ymm4, 224(%rdi) vmovdqu 64(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%rdi) vmovdqu %ymm7, 288(%rdi) vmovdqu %ymm6, 320(%rdi) vmovdqu %ymm4, 352(%rdi) vmovdqu 96(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%rdi) vmovdqu %ymm3, 416(%rdi) vmovdqu %ymm2, 448(%rdi) vmovdqu %ymm0, 480(%rdi) leaq 320(%rsp), %rax movl $1431655765, 1448(%rsp) movl $858993459, 1452(%rsp) movl $50529027, 1456(%rsp) movl $252645135, 1460(%rsp) vpbroadcastd 1448(%rsp), %ymm0 vpbroadcastd 1452(%rsp), %ymm1 vpbroadcastd 1456(%rsp), %ymm2 vpbroadcastd 1460(%rsp), %ymm3 vmovdqu (%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%r8) vmovdqu %ymm7, 32(%r8) vmovdqu %ymm6, 64(%r8) vmovdqu %ymm4, 96(%r8) vmovdqu 32(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%r8) vmovdqu %ymm7, 160(%r8) vmovdqu %ymm6, 192(%r8) vmovdqu %ymm4, 224(%r8) vmovdqu 64(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%r8) vmovdqu %ymm7, 288(%r8) vmovdqu %ymm6, 320(%r8) vmovdqu %ymm4, 352(%r8) vmovdqu 96(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%r8) vmovdqu %ymm3, 416(%r8) vmovdqu %ymm2, 448(%r8) vmovdqu %ymm0, 480(%r8) leaq 480(%rsp), %rax movl $1431655765, 1460(%rsp) movl $858993459, 1456(%rsp) movl $50529027, 1452(%rsp) movl $252645135, 1448(%rsp) vpbroadcastd 1460(%rsp), %ymm0 vpbroadcastd 1456(%rsp), %ymm1 vpbroadcastd 1452(%rsp), %ymm2 vpbroadcastd 1448(%rsp), %ymm3 vmovdqu (%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%r9) vmovdqu %ymm7, 32(%r9) vmovdqu %ymm6, 64(%r9) vmovdqu %ymm4, 96(%r9) vmovdqu 32(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%r9) vmovdqu %ymm7, 160(%r9) vmovdqu %ymm6, 192(%r9) vmovdqu %ymm4, 224(%r9) vmovdqu 64(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%r9) vmovdqu %ymm7, 288(%r9) vmovdqu %ymm6, 320(%r9) vmovdqu %ymm4, 352(%r9) vmovdqu 96(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%r9) vmovdqu %ymm3, 416(%r9) vmovdqu %ymm2, 448(%r9) vmovdqu %ymm0, 480(%r9) jmp *1464(%rsp) L_poly_getnoise_eta1_4x$1: movq %rax, 1440(%rsp) vmovdqu (%r10), %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 320(%rsp) vmovdqu %ymm0, 480(%rsp) movb %cl, 32(%rsp) incb %cl movb %cl, 192(%rsp) incb %cl movb %cl, 352(%rsp) incb %cl movb %cl, 512(%rsp) leaq 640(%rsp), %rax movq %rsp, %rcx leaq 160(%rsp), %rdx leaq 320(%rsp), %rsi leaq 480(%rsp), %r11 leaq -8(%rsp), %rsp leaq L_poly_getnoise_eta1_4x$3(%rip), %rbx movq %rbx, (%rsp) jmp L_shake256_absorb4x_33$1 L_poly_getnoise_eta1_4x$3: leaq 8(%rsp), %rsp leaq 640(%rsp), %rax movq %rsp, %r11 leaq 160(%rsp), %rcx leaq 320(%rsp), %rdx leaq 480(%rsp), %rsi movq %rcx, %rbx movq %rdx, %rbp movq %rsi, %r12 leaq -832(%rsp), %rsp leaq L_poly_getnoise_eta1_4x$2(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L_poly_getnoise_eta1_4x$2: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) movq 1440(%rsp), %rax movq %rsp, %rcx movl $1431655765, 1448(%rsp) movl $858993459, 1452(%rsp) movl $50529027, 1456(%rsp) movl $252645135, 1460(%rsp) vpbroadcastd 1448(%rsp), %ymm0 vpbroadcastd 1452(%rsp), %ymm1 vpbroadcastd 1456(%rsp), %ymm2 vpbroadcastd 1460(%rsp), %ymm3 vmovdqu (%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%rax) vmovdqu %ymm7, 32(%rax) vmovdqu %ymm6, 64(%rax) vmovdqu %ymm4, 96(%rax) vmovdqu 32(%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%rax) vmovdqu %ymm7, 160(%rax) vmovdqu %ymm6, 192(%rax) vmovdqu %ymm4, 224(%rax) vmovdqu 64(%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%rax) vmovdqu %ymm7, 288(%rax) vmovdqu %ymm6, 320(%rax) vmovdqu %ymm4, 352(%rax) vmovdqu 96(%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%rax) vmovdqu %ymm3, 416(%rax) vmovdqu %ymm2, 448(%rax) vmovdqu %ymm0, 480(%rax) leaq 160(%rsp), %rax movl $1431655765, 1460(%rsp) movl $858993459, 1456(%rsp) movl $50529027, 1452(%rsp) movl $252645135, 1448(%rsp) vpbroadcastd 1460(%rsp), %ymm0 vpbroadcastd 1456(%rsp), %ymm1 vpbroadcastd 1452(%rsp), %ymm2 vpbroadcastd 1448(%rsp), %ymm3 vmovdqu (%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%rdi) vmovdqu %ymm7, 32(%rdi) vmovdqu %ymm6, 64(%rdi) vmovdqu %ymm4, 96(%rdi) vmovdqu 32(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%rdi) vmovdqu %ymm7, 160(%rdi) vmovdqu %ymm6, 192(%rdi) vmovdqu %ymm4, 224(%rdi) vmovdqu 64(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%rdi) vmovdqu %ymm7, 288(%rdi) vmovdqu %ymm6, 320(%rdi) vmovdqu %ymm4, 352(%rdi) vmovdqu 96(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%rdi) vmovdqu %ymm3, 416(%rdi) vmovdqu %ymm2, 448(%rdi) vmovdqu %ymm0, 480(%rdi) leaq 320(%rsp), %rax movl $1431655765, 1448(%rsp) movl $858993459, 1452(%rsp) movl $50529027, 1456(%rsp) movl $252645135, 1460(%rsp) vpbroadcastd 1448(%rsp), %ymm0 vpbroadcastd 1452(%rsp), %ymm1 vpbroadcastd 1456(%rsp), %ymm2 vpbroadcastd 1460(%rsp), %ymm3 vmovdqu (%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%r8) vmovdqu %ymm7, 32(%r8) vmovdqu %ymm6, 64(%r8) vmovdqu %ymm4, 96(%r8) vmovdqu 32(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%r8) vmovdqu %ymm7, 160(%r8) vmovdqu %ymm6, 192(%r8) vmovdqu %ymm4, 224(%r8) vmovdqu 64(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%r8) vmovdqu %ymm7, 288(%r8) vmovdqu %ymm6, 320(%r8) vmovdqu %ymm4, 352(%r8) vmovdqu 96(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%r8) vmovdqu %ymm3, 416(%r8) vmovdqu %ymm2, 448(%r8) vmovdqu %ymm0, 480(%r8) leaq 480(%rsp), %rax movl $1431655765, 1460(%rsp) movl $858993459, 1456(%rsp) movl $50529027, 1452(%rsp) movl $252645135, 1448(%rsp) vpbroadcastd 1460(%rsp), %ymm0 vpbroadcastd 1456(%rsp), %ymm1 vpbroadcastd 1452(%rsp), %ymm2 vpbroadcastd 1448(%rsp), %ymm3 vmovdqu (%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%r9) vmovdqu %ymm7, 32(%r9) vmovdqu %ymm6, 64(%r9) vmovdqu %ymm4, 96(%r9) vmovdqu 32(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%r9) vmovdqu %ymm7, 160(%r9) vmovdqu %ymm6, 192(%r9) vmovdqu %ymm4, 224(%r9) vmovdqu 64(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%r9) vmovdqu %ymm7, 288(%r9) vmovdqu %ymm6, 320(%r9) vmovdqu %ymm4, 352(%r9) vmovdqu 96(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%r9) vmovdqu %ymm3, 416(%r9) vmovdqu %ymm2, 448(%r9) vmovdqu %ymm0, 480(%r9) jmp *1464(%rsp) L_poly_getnoise$1: movl $1431655765, 172(%rsp) movl $858993459, 176(%rsp) movl $50529027, 180(%rsp) movl $252645135, 184(%rsp) movq %rax, 128(%rsp) movq (%rcx), %rax movq %rax, 136(%rsp) movq 8(%rcx), %rax movq %rax, 144(%rsp) movq 16(%rcx), %rax movq %rax, 152(%rsp) movq 24(%rcx), %rax movq %rax, 160(%rsp) movb %dl, 168(%rsp) movq %rsp, %rax leaq 136(%rsp), %rcx leaq -256(%rsp), %rsp leaq L_poly_getnoise$2(%rip), %rdx movq %rdx, 224(%rsp) jmp L_shake256_128_33$1 L_poly_getnoise$2: leaq 256(%rsp), %rsp vpbroadcastd 172(%rsp), %ymm0 vpbroadcastd 176(%rsp), %ymm1 vpbroadcastd 180(%rsp), %ymm2 vpbroadcastd 184(%rsp), %ymm3 movq 128(%rsp), %rax vmovdqu (%rsp), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%rax) vmovdqu %ymm7, 32(%rax) vmovdqu %ymm6, 64(%rax) vmovdqu %ymm4, 96(%rax) vmovdqu 32(%rsp), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%rax) vmovdqu %ymm7, 160(%rax) vmovdqu %ymm6, 192(%rax) vmovdqu %ymm4, 224(%rax) vmovdqu 64(%rsp), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%rax) vmovdqu %ymm7, 288(%rax) vmovdqu %ymm6, 320(%rax) vmovdqu %ymm4, 352(%rax) vmovdqu 96(%rsp), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%rax) vmovdqu %ymm3, 416(%rax) vmovdqu %ymm2, 448(%rax) vmovdqu %ymm0, 480(%rax) jmp *192(%rsp) L_poly_frommsg_1$1: leaq glob_data + 256(%rip), %rdi vmovdqu (%rdi), %ymm0 vbroadcasti128 glob_data + 4112(%rip), %ymm1 vbroadcasti128 glob_data + 4096(%rip), %ymm2 vmovdqu (%rax), %ymm3 vpshufd $0, %ymm3, %ymm4 vpsllvd %ymm1, %ymm4, %ymm4 vpshufb %ymm2, %ymm4, %ymm4 vpsllw $12, %ymm4, %ymm5 vpsllw $8, %ymm4, %ymm6 vpsllw $4, %ymm4, %ymm7 vpsraw $15, %ymm5, %ymm5 vpsraw $15, %ymm6, %ymm6 vpsraw $15, %ymm7, %ymm7 vpsraw $15, %ymm4, %ymm4 vpand %ymm0, %ymm5, %ymm5 vpand %ymm0, %ymm6, %ymm6 vpand %ymm0, %ymm7, %ymm7 vpand %ymm0, %ymm4, %ymm4 vpunpcklqdq %ymm6, %ymm5, %ymm8 vpunpckhqdq %ymm6, %ymm5, %ymm5 vpunpcklqdq %ymm4, %ymm7, %ymm6 vpunpckhqdq %ymm4, %ymm7, %ymm4 vperm2i128 $32, %ymm6, %ymm8, %ymm7 vperm2i128 $49, %ymm6, %ymm8, %ymm6 vperm2i128 $32, %ymm4, %ymm5, %ymm8 vperm2i128 $49, %ymm4, %ymm5, %ymm4 vmovdqu %ymm7, (%rcx) vmovdqu %ymm8, 32(%rcx) vmovdqu %ymm6, 256(%rcx) vmovdqu %ymm4, 288(%rcx) vpshufd $85, %ymm3, %ymm4 vpsllvd %ymm1, %ymm4, %ymm4 vpshufb %ymm2, %ymm4, %ymm4 vpsllw $12, %ymm4, %ymm5 vpsllw $8, %ymm4, %ymm6 vpsllw $4, %ymm4, %ymm7 vpsraw $15, %ymm5, %ymm5 vpsraw $15, %ymm6, %ymm6 vpsraw $15, %ymm7, %ymm7 vpsraw $15, %ymm4, %ymm4 vpand %ymm0, %ymm5, %ymm5 vpand %ymm0, %ymm6, %ymm6 vpand %ymm0, %ymm7, %ymm7 vpand %ymm0, %ymm4, %ymm4 vpunpcklqdq %ymm6, %ymm5, %ymm8 vpunpckhqdq %ymm6, %ymm5, %ymm5 vpunpcklqdq %ymm4, %ymm7, %ymm6 vpunpckhqdq %ymm4, %ymm7, %ymm4 vperm2i128 $32, %ymm6, %ymm8, %ymm7 vperm2i128 $49, %ymm6, %ymm8, %ymm6 vperm2i128 $32, %ymm4, %ymm5, %ymm8 vperm2i128 $49, %ymm4, %ymm5, %ymm4 vmovdqu %ymm7, 64(%rcx) vmovdqu %ymm8, 96(%rcx) vmovdqu %ymm6, 320(%rcx) vmovdqu %ymm4, 352(%rcx) vpshufd $-86, %ymm3, %ymm4 vpsllvd %ymm1, %ymm4, %ymm4 vpshufb %ymm2, %ymm4, %ymm4 vpsllw $12, %ymm4, %ymm5 vpsllw $8, %ymm4, %ymm6 vpsllw $4, %ymm4, %ymm7 vpsraw $15, %ymm5, %ymm5 vpsraw $15, %ymm6, %ymm6 vpsraw $15, %ymm7, %ymm7 vpsraw $15, %ymm4, %ymm4 vpand %ymm0, %ymm5, %ymm5 vpand %ymm0, %ymm6, %ymm6 vpand %ymm0, %ymm7, %ymm7 vpand %ymm0, %ymm4, %ymm4 vpunpcklqdq %ymm6, %ymm5, %ymm8 vpunpckhqdq %ymm6, %ymm5, %ymm5 vpunpcklqdq %ymm4, %ymm7, %ymm6 vpunpckhqdq %ymm4, %ymm7, %ymm4 vperm2i128 $32, %ymm6, %ymm8, %ymm7 vperm2i128 $49, %ymm6, %ymm8, %ymm6 vperm2i128 $32, %ymm4, %ymm5, %ymm8 vperm2i128 $49, %ymm4, %ymm5, %ymm4 vmovdqu %ymm7, 128(%rcx) vmovdqu %ymm8, 160(%rcx) vmovdqu %ymm6, 384(%rcx) vmovdqu %ymm4, 416(%rcx) vpshufd $-1, %ymm3, %ymm3 vpsllvd %ymm1, %ymm3, %ymm1 vpshufb %ymm2, %ymm1, %ymm1 vpsllw $12, %ymm1, %ymm2 vpsllw $8, %ymm1, %ymm3 vpsllw $4, %ymm1, %ymm4 vpsraw $15, %ymm2, %ymm2 vpsraw $15, %ymm3, %ymm3 vpsraw $15, %ymm4, %ymm4 vpsraw $15, %ymm1, %ymm1 vpand %ymm0, %ymm2, %ymm2 vpand %ymm0, %ymm3, %ymm3 vpand %ymm0, %ymm4, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpunpcklqdq %ymm3, %ymm2, %ymm1 vpunpckhqdq %ymm3, %ymm2, %ymm2 vpunpcklqdq %ymm0, %ymm4, %ymm3 vpunpckhqdq %ymm0, %ymm4, %ymm0 vperm2i128 $32, %ymm3, %ymm1, %ymm4 vperm2i128 $49, %ymm3, %ymm1, %ymm1 vperm2i128 $32, %ymm0, %ymm2, %ymm3 vperm2i128 $49, %ymm0, %ymm2, %ymm0 vmovdqu %ymm4, 192(%rcx) vmovdqu %ymm3, 224(%rcx) vmovdqu %ymm1, 448(%rcx) vmovdqu %ymm0, 480(%rcx) jmp *%r8 L_poly_frommsg$1: leaq glob_data + 256(%rip), %rax vmovdqu (%rax), %ymm0 vbroadcasti128 glob_data + 4112(%rip), %ymm1 vbroadcasti128 glob_data + 4096(%rip), %ymm2 vmovdqu (%rcx), %ymm3 vpshufd $0, %ymm3, %ymm4 vpsllvd %ymm1, %ymm4, %ymm4 vpshufb %ymm2, %ymm4, %ymm4 vpsllw $12, %ymm4, %ymm5 vpsllw $8, %ymm4, %ymm6 vpsllw $4, %ymm4, %ymm7 vpsraw $15, %ymm5, %ymm5 vpsraw $15, %ymm6, %ymm6 vpsraw $15, %ymm7, %ymm7 vpsraw $15, %ymm4, %ymm4 vpand %ymm0, %ymm5, %ymm5 vpand %ymm0, %ymm6, %ymm6 vpand %ymm0, %ymm7, %ymm7 vpand %ymm0, %ymm4, %ymm4 vpunpcklqdq %ymm6, %ymm5, %ymm8 vpunpckhqdq %ymm6, %ymm5, %ymm5 vpunpcklqdq %ymm4, %ymm7, %ymm6 vpunpckhqdq %ymm4, %ymm7, %ymm4 vperm2i128 $32, %ymm6, %ymm8, %ymm7 vperm2i128 $49, %ymm6, %ymm8, %ymm6 vperm2i128 $32, %ymm4, %ymm5, %ymm8 vperm2i128 $49, %ymm4, %ymm5, %ymm4 vmovdqu %ymm7, (%rdx) vmovdqu %ymm8, 32(%rdx) vmovdqu %ymm6, 256(%rdx) vmovdqu %ymm4, 288(%rdx) vpshufd $85, %ymm3, %ymm4 vpsllvd %ymm1, %ymm4, %ymm4 vpshufb %ymm2, %ymm4, %ymm4 vpsllw $12, %ymm4, %ymm5 vpsllw $8, %ymm4, %ymm6 vpsllw $4, %ymm4, %ymm7 vpsraw $15, %ymm5, %ymm5 vpsraw $15, %ymm6, %ymm6 vpsraw $15, %ymm7, %ymm7 vpsraw $15, %ymm4, %ymm4 vpand %ymm0, %ymm5, %ymm5 vpand %ymm0, %ymm6, %ymm6 vpand %ymm0, %ymm7, %ymm7 vpand %ymm0, %ymm4, %ymm4 vpunpcklqdq %ymm6, %ymm5, %ymm8 vpunpckhqdq %ymm6, %ymm5, %ymm5 vpunpcklqdq %ymm4, %ymm7, %ymm6 vpunpckhqdq %ymm4, %ymm7, %ymm4 vperm2i128 $32, %ymm6, %ymm8, %ymm7 vperm2i128 $49, %ymm6, %ymm8, %ymm6 vperm2i128 $32, %ymm4, %ymm5, %ymm8 vperm2i128 $49, %ymm4, %ymm5, %ymm4 vmovdqu %ymm7, 64(%rdx) vmovdqu %ymm8, 96(%rdx) vmovdqu %ymm6, 320(%rdx) vmovdqu %ymm4, 352(%rdx) vpshufd $-86, %ymm3, %ymm4 vpsllvd %ymm1, %ymm4, %ymm4 vpshufb %ymm2, %ymm4, %ymm4 vpsllw $12, %ymm4, %ymm5 vpsllw $8, %ymm4, %ymm6 vpsllw $4, %ymm4, %ymm7 vpsraw $15, %ymm5, %ymm5 vpsraw $15, %ymm6, %ymm6 vpsraw $15, %ymm7, %ymm7 vpsraw $15, %ymm4, %ymm4 vpand %ymm0, %ymm5, %ymm5 vpand %ymm0, %ymm6, %ymm6 vpand %ymm0, %ymm7, %ymm7 vpand %ymm0, %ymm4, %ymm4 vpunpcklqdq %ymm6, %ymm5, %ymm8 vpunpckhqdq %ymm6, %ymm5, %ymm5 vpunpcklqdq %ymm4, %ymm7, %ymm6 vpunpckhqdq %ymm4, %ymm7, %ymm4 vperm2i128 $32, %ymm6, %ymm8, %ymm7 vperm2i128 $49, %ymm6, %ymm8, %ymm6 vperm2i128 $32, %ymm4, %ymm5, %ymm8 vperm2i128 $49, %ymm4, %ymm5, %ymm4 vmovdqu %ymm7, 128(%rdx) vmovdqu %ymm8, 160(%rdx) vmovdqu %ymm6, 384(%rdx) vmovdqu %ymm4, 416(%rdx) vpshufd $-1, %ymm3, %ymm3 vpsllvd %ymm1, %ymm3, %ymm1 vpshufb %ymm2, %ymm1, %ymm1 vpsllw $12, %ymm1, %ymm2 vpsllw $8, %ymm1, %ymm3 vpsllw $4, %ymm1, %ymm4 vpsraw $15, %ymm2, %ymm2 vpsraw $15, %ymm3, %ymm3 vpsraw $15, %ymm4, %ymm4 vpsraw $15, %ymm1, %ymm1 vpand %ymm0, %ymm2, %ymm2 vpand %ymm0, %ymm3, %ymm3 vpand %ymm0, %ymm4, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpunpcklqdq %ymm3, %ymm2, %ymm1 vpunpckhqdq %ymm3, %ymm2, %ymm2 vpunpcklqdq %ymm0, %ymm4, %ymm3 vpunpckhqdq %ymm0, %ymm4, %ymm0 vperm2i128 $32, %ymm3, %ymm1, %ymm4 vperm2i128 $49, %ymm3, %ymm1, %ymm1 vperm2i128 $32, %ymm0, %ymm2, %ymm3 vperm2i128 $49, %ymm0, %ymm2, %ymm0 vmovdqu %ymm4, 192(%rdx) vmovdqu %ymm3, 224(%rdx) vmovdqu %ymm1, 448(%rdx) vmovdqu %ymm0, 480(%rdx) jmp *%rsi L_poly_frommont$1: leaq glob_data + 448(%rip), %rcx vmovdqu (%rcx), %ymm0 leaq glob_data + 416(%rip), %rcx vmovdqu (%rcx), %ymm1 leaq glob_data + 160(%rip), %rcx vmovdqu (%rcx), %ymm2 vmovdqu (%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, (%rax) vmovdqu 32(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 32(%rax) vmovdqu 64(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 64(%rax) vmovdqu 96(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 96(%rax) vmovdqu 128(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 128(%rax) vmovdqu 160(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 160(%rax) vmovdqu 192(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 192(%rax) vmovdqu 224(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 224(%rax) vmovdqu 256(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 256(%rax) vmovdqu 288(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 288(%rax) vmovdqu 320(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 320(%rax) vmovdqu 352(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 352(%rax) vmovdqu 384(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 384(%rax) vmovdqu 416(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 416(%rax) vmovdqu 448(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 448(%rax) vmovdqu 480(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm2 vpmullw %ymm1, %ymm2, %ymm1 vpmulhw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm4, %ymm0 vmovdqu %ymm0, 480(%rax) jmp *%rdx L_poly_frombytes$1: leaq glob_data + 288(%rip), %r9 vmovdqu (%r9), %ymm0 vmovdqu (%rdi), %ymm1 vmovdqu 32(%rdi), %ymm2 vmovdqu 64(%rdi), %ymm3 vmovdqu 96(%rdi), %ymm4 vmovdqu 128(%rdi), %ymm5 vmovdqu 160(%rdi), %ymm6 vperm2i128 $32, %ymm4, %ymm1, %ymm7 vperm2i128 $49, %ymm4, %ymm1, %ymm4 vperm2i128 $32, %ymm5, %ymm2, %ymm8 vperm2i128 $49, %ymm5, %ymm2, %ymm1 vperm2i128 $32, %ymm6, %ymm3, %ymm5 vperm2i128 $49, %ymm6, %ymm3, %ymm3 vpunpcklqdq %ymm1, %ymm7, %ymm6 vpunpckhqdq %ymm1, %ymm7, %ymm1 vpunpcklqdq %ymm5, %ymm4, %ymm2 vpunpckhqdq %ymm5, %ymm4, %ymm5 vpunpcklqdq %ymm3, %ymm8, %ymm7 vpunpckhqdq %ymm3, %ymm8, %ymm3 vmovsldup %ymm5, %ymm4 vpblendd $-86, %ymm4, %ymm6, %ymm4 vpsrlq $32, %ymm6, %ymm6 vpblendd $-86, %ymm5, %ymm6, %ymm5 vmovsldup %ymm7, %ymm6 vpblendd $-86, %ymm6, %ymm1, %ymm6 vpsrlq $32, %ymm1, %ymm1 vpblendd $-86, %ymm7, %ymm1, %ymm7 vmovsldup %ymm3, %ymm1 vpblendd $-86, %ymm1, %ymm2, %ymm1 vpsrlq $32, %ymm2, %ymm2 vpblendd $-86, %ymm3, %ymm2, %ymm2 vpslld $16, %ymm7, %ymm3 vpblendw $-86, %ymm3, %ymm4, %ymm3 vpsrld $16, %ymm4, %ymm4 vpblendw $-86, %ymm7, %ymm4, %ymm4 vpslld $16, %ymm1, %ymm7 vpblendw $-86, %ymm7, %ymm5, %ymm7 vpsrld $16, %ymm5, %ymm5 vpblendw $-86, %ymm1, %ymm5, %ymm1 vpslld $16, %ymm2, %ymm5 vpblendw $-86, %ymm5, %ymm6, %ymm5 vpsrld $16, %ymm6, %ymm6 vpblendw $-86, %ymm2, %ymm6, %ymm2 vpsrlw $12, %ymm3, %ymm6 vpsllw $4, %ymm4, %ymm8 vpor %ymm8, %ymm6, %ymm6 vpand %ymm3, %ymm0, %ymm3 vpand %ymm6, %ymm0, %ymm6 vpsrlw $8, %ymm4, %ymm4 vpsllw $8, %ymm7, %ymm8 vpor %ymm8, %ymm4, %ymm4 vpand %ymm4, %ymm0, %ymm4 vpsrlw $4, %ymm7, %ymm7 vpand %ymm7, %ymm0, %ymm7 vpsrlw $12, %ymm1, %ymm8 vpsllw $4, %ymm5, %ymm9 vpor %ymm9, %ymm8, %ymm8 vpand %ymm1, %ymm0, %ymm1 vpand %ymm8, %ymm0, %ymm8 vpsrlw $8, %ymm5, %ymm5 vpsllw $8, %ymm2, %ymm9 vpor %ymm9, %ymm5, %ymm5 vpand %ymm5, %ymm0, %ymm5 vpsrlw $4, %ymm2, %ymm2 vpand %ymm2, %ymm0, %ymm2 vmovdqu %ymm3, (%r8) vmovdqu %ymm6, 32(%r8) vmovdqu %ymm4, 64(%r8) vmovdqu %ymm7, 96(%r8) vmovdqu %ymm1, 128(%r8) vmovdqu %ymm8, 160(%r8) vmovdqu %ymm5, 192(%r8) vmovdqu %ymm2, 224(%r8) vmovdqu 192(%rdi), %ymm1 vmovdqu 224(%rdi), %ymm2 vmovdqu 256(%rdi), %ymm3 vmovdqu 288(%rdi), %ymm4 vmovdqu 320(%rdi), %ymm5 vmovdqu 352(%rdi), %ymm6 vperm2i128 $32, %ymm4, %ymm1, %ymm7 vperm2i128 $49, %ymm4, %ymm1, %ymm4 vperm2i128 $32, %ymm5, %ymm2, %ymm8 vperm2i128 $49, %ymm5, %ymm2, %ymm1 vperm2i128 $32, %ymm6, %ymm3, %ymm5 vperm2i128 $49, %ymm6, %ymm3, %ymm3 vpunpcklqdq %ymm1, %ymm7, %ymm6 vpunpckhqdq %ymm1, %ymm7, %ymm1 vpunpcklqdq %ymm5, %ymm4, %ymm2 vpunpckhqdq %ymm5, %ymm4, %ymm5 vpunpcklqdq %ymm3, %ymm8, %ymm7 vpunpckhqdq %ymm3, %ymm8, %ymm3 vmovsldup %ymm5, %ymm4 vpblendd $-86, %ymm4, %ymm6, %ymm4 vpsrlq $32, %ymm6, %ymm6 vpblendd $-86, %ymm5, %ymm6, %ymm5 vmovsldup %ymm7, %ymm6 vpblendd $-86, %ymm6, %ymm1, %ymm6 vpsrlq $32, %ymm1, %ymm1 vpblendd $-86, %ymm7, %ymm1, %ymm7 vmovsldup %ymm3, %ymm1 vpblendd $-86, %ymm1, %ymm2, %ymm1 vpsrlq $32, %ymm2, %ymm2 vpblendd $-86, %ymm3, %ymm2, %ymm2 vpslld $16, %ymm7, %ymm3 vpblendw $-86, %ymm3, %ymm4, %ymm3 vpsrld $16, %ymm4, %ymm4 vpblendw $-86, %ymm7, %ymm4, %ymm4 vpslld $16, %ymm1, %ymm7 vpblendw $-86, %ymm7, %ymm5, %ymm7 vpsrld $16, %ymm5, %ymm5 vpblendw $-86, %ymm1, %ymm5, %ymm1 vpslld $16, %ymm2, %ymm5 vpblendw $-86, %ymm5, %ymm6, %ymm5 vpsrld $16, %ymm6, %ymm6 vpblendw $-86, %ymm2, %ymm6, %ymm2 vpsrlw $12, %ymm3, %ymm6 vpsllw $4, %ymm4, %ymm8 vpor %ymm8, %ymm6, %ymm6 vpand %ymm3, %ymm0, %ymm3 vpand %ymm6, %ymm0, %ymm6 vpsrlw $8, %ymm4, %ymm4 vpsllw $8, %ymm7, %ymm8 vpor %ymm8, %ymm4, %ymm4 vpand %ymm4, %ymm0, %ymm4 vpsrlw $4, %ymm7, %ymm7 vpand %ymm7, %ymm0, %ymm7 vpsrlw $12, %ymm1, %ymm8 vpsllw $4, %ymm5, %ymm9 vpor %ymm9, %ymm8, %ymm8 vpand %ymm1, %ymm0, %ymm1 vpand %ymm8, %ymm0, %ymm8 vpsrlw $8, %ymm5, %ymm5 vpsllw $8, %ymm2, %ymm9 vpor %ymm9, %ymm5, %ymm5 vpand %ymm5, %ymm0, %ymm5 vpsrlw $4, %ymm2, %ymm2 vpand %ymm2, %ymm0, %ymm0 vmovdqu %ymm3, 256(%r8) vmovdqu %ymm6, 288(%r8) vmovdqu %ymm4, 320(%r8) vmovdqu %ymm7, 352(%r8) vmovdqu %ymm1, 384(%r8) vmovdqu %ymm8, 416(%r8) vmovdqu %ymm5, 448(%r8) vmovdqu %ymm0, 480(%r8) jmp *%r10 L_poly_decompress$1: leaq glob_data + 448(%rip), %rdi vmovdqu (%rdi), %ymm0 leaq glob_data + 96(%rip), %rdi vmovdqu (%rdi), %ymm1 vpbroadcastd glob_data + 6412(%rip), %ymm2 vpbroadcastd glob_data + 6408(%rip), %ymm3 vpxor %ymm4, %ymm4, %ymm4 movq (%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, (%rcx) movq 8(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 32(%rcx) movq 16(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 64(%rcx) movq 24(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 96(%rcx) movq 32(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 128(%rcx) movq 40(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 160(%rcx) movq 48(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 192(%rcx) movq 56(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 224(%rcx) movq 64(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 256(%rcx) movq 72(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 288(%rcx) movq 80(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 320(%rcx) movq 88(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 352(%rcx) movq 96(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 384(%rcx) movq 104(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 416(%rcx) movq 112(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 448(%rcx) movq 120(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm1 vpand %ymm2, %ymm1, %ymm1 vpmullw %ymm3, %ymm1, %ymm1 vpmulhrsw %ymm0, %ymm1, %ymm0 vmovdqu %ymm0, 480(%rcx) jmp *%r8 L_poly_compress_1$1: leaq L_poly_compress_1$2(%rip), %r8 jmp L_poly_csubq$1 L_poly_compress_1$2: leaq glob_data + 384(%rip), %rdx vmovdqu (%rdx), %ymm0 vpbroadcastw glob_data + 6428(%rip), %ymm1 vpbroadcastw glob_data + 6426(%rip), %ymm2 vpbroadcastw glob_data + 6424(%rip), %ymm3 vmovdqu glob_data + 128(%rip), %ymm4 vmovdqu (%rcx), %ymm5 vmovdqu 32(%rcx), %ymm6 vmovdqu 64(%rcx), %ymm7 vmovdqu 96(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm8, %ymm8 vpand %ymm2, %ymm5, %ymm5 vpand %ymm2, %ymm6, %ymm6 vpand %ymm2, %ymm7, %ymm7 vpand %ymm2, %ymm8, %ymm8 vpackuswb %ymm6, %ymm5, %ymm5 vpackuswb %ymm8, %ymm7, %ymm6 vpmaddubsw %ymm3, %ymm5, %ymm5 vpmaddubsw %ymm3, %ymm6, %ymm6 vpackuswb %ymm6, %ymm5, %ymm5 vpermd %ymm5, %ymm4, %ymm5 vmovdqu %ymm5, (%rax) vmovdqu 128(%rcx), %ymm5 vmovdqu 160(%rcx), %ymm6 vmovdqu 192(%rcx), %ymm7 vmovdqu 224(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm8, %ymm8 vpand %ymm2, %ymm5, %ymm5 vpand %ymm2, %ymm6, %ymm6 vpand %ymm2, %ymm7, %ymm7 vpand %ymm2, %ymm8, %ymm8 vpackuswb %ymm6, %ymm5, %ymm5 vpackuswb %ymm8, %ymm7, %ymm6 vpmaddubsw %ymm3, %ymm5, %ymm5 vpmaddubsw %ymm3, %ymm6, %ymm6 vpackuswb %ymm6, %ymm5, %ymm5 vpermd %ymm5, %ymm4, %ymm5 vmovdqu %ymm5, 32(%rax) vmovdqu 256(%rcx), %ymm5 vmovdqu 288(%rcx), %ymm6 vmovdqu 320(%rcx), %ymm7 vmovdqu 352(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm8, %ymm8 vpand %ymm2, %ymm5, %ymm5 vpand %ymm2, %ymm6, %ymm6 vpand %ymm2, %ymm7, %ymm7 vpand %ymm2, %ymm8, %ymm8 vpackuswb %ymm6, %ymm5, %ymm5 vpackuswb %ymm8, %ymm7, %ymm6 vpmaddubsw %ymm3, %ymm5, %ymm5 vpmaddubsw %ymm3, %ymm6, %ymm6 vpackuswb %ymm6, %ymm5, %ymm5 vpermd %ymm5, %ymm4, %ymm5 vmovdqu %ymm5, 64(%rax) vmovdqu 384(%rcx), %ymm5 vmovdqu 416(%rcx), %ymm6 vmovdqu 448(%rcx), %ymm7 vmovdqu 480(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm0 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm0, %ymm0 vpand %ymm2, %ymm5, %ymm1 vpand %ymm2, %ymm6, %ymm5 vpand %ymm2, %ymm7, %ymm6 vpand %ymm2, %ymm0, %ymm0 vpackuswb %ymm5, %ymm1, %ymm1 vpackuswb %ymm0, %ymm6, %ymm0 vpmaddubsw %ymm3, %ymm1, %ymm1 vpmaddubsw %ymm3, %ymm0, %ymm0 vpackuswb %ymm0, %ymm1, %ymm0 vpermd %ymm0, %ymm4, %ymm0 vmovdqu %ymm0, 96(%rax) jmp *%rsi L_poly_compress$1: leaq L_poly_compress$2(%rip), %r8 jmp L_poly_csubq$1 L_poly_compress$2: leaq glob_data + 384(%rip), %rdx vmovdqu (%rdx), %ymm0 vpbroadcastw glob_data + 6428(%rip), %ymm1 vpbroadcastw glob_data + 6426(%rip), %ymm2 vpbroadcastw glob_data + 6424(%rip), %ymm3 vmovdqu glob_data + 128(%rip), %ymm4 vmovdqu (%rcx), %ymm5 vmovdqu 32(%rcx), %ymm6 vmovdqu 64(%rcx), %ymm7 vmovdqu 96(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm8, %ymm8 vpand %ymm2, %ymm5, %ymm5 vpand %ymm2, %ymm6, %ymm6 vpand %ymm2, %ymm7, %ymm7 vpand %ymm2, %ymm8, %ymm8 vpackuswb %ymm6, %ymm5, %ymm5 vpackuswb %ymm8, %ymm7, %ymm6 vpmaddubsw %ymm3, %ymm5, %ymm5 vpmaddubsw %ymm3, %ymm6, %ymm6 vpackuswb %ymm6, %ymm5, %ymm5 vpermd %ymm5, %ymm4, %ymm5 vmovdqu %ymm5, (%rax) vmovdqu 128(%rcx), %ymm5 vmovdqu 160(%rcx), %ymm6 vmovdqu 192(%rcx), %ymm7 vmovdqu 224(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm8, %ymm8 vpand %ymm2, %ymm5, %ymm5 vpand %ymm2, %ymm6, %ymm6 vpand %ymm2, %ymm7, %ymm7 vpand %ymm2, %ymm8, %ymm8 vpackuswb %ymm6, %ymm5, %ymm5 vpackuswb %ymm8, %ymm7, %ymm6 vpmaddubsw %ymm3, %ymm5, %ymm5 vpmaddubsw %ymm3, %ymm6, %ymm6 vpackuswb %ymm6, %ymm5, %ymm5 vpermd %ymm5, %ymm4, %ymm5 vmovdqu %ymm5, 32(%rax) vmovdqu 256(%rcx), %ymm5 vmovdqu 288(%rcx), %ymm6 vmovdqu 320(%rcx), %ymm7 vmovdqu 352(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm8, %ymm8 vpand %ymm2, %ymm5, %ymm5 vpand %ymm2, %ymm6, %ymm6 vpand %ymm2, %ymm7, %ymm7 vpand %ymm2, %ymm8, %ymm8 vpackuswb %ymm6, %ymm5, %ymm5 vpackuswb %ymm8, %ymm7, %ymm6 vpmaddubsw %ymm3, %ymm5, %ymm5 vpmaddubsw %ymm3, %ymm6, %ymm6 vpackuswb %ymm6, %ymm5, %ymm5 vpermd %ymm5, %ymm4, %ymm5 vmovdqu %ymm5, 64(%rax) vmovdqu 384(%rcx), %ymm5 vmovdqu 416(%rcx), %ymm6 vmovdqu 448(%rcx), %ymm7 vmovdqu 480(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm0 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm0, %ymm0 vpand %ymm2, %ymm5, %ymm1 vpand %ymm2, %ymm6, %ymm5 vpand %ymm2, %ymm7, %ymm6 vpand %ymm2, %ymm0, %ymm0 vpackuswb %ymm5, %ymm1, %ymm1 vpackuswb %ymm0, %ymm6, %ymm0 vpmaddubsw %ymm3, %ymm1, %ymm1 vpmaddubsw %ymm3, %ymm0, %ymm0 vpackuswb %ymm0, %ymm1, %ymm0 vpermd %ymm0, %ymm4, %ymm0 vmovdqu %ymm0, 96(%rax) jmp *%rsi L_poly_basemul$1: vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 416(%rip), %ymm1 vmovdqu glob_data + 1552(%rip), %ymm2 vmovdqu glob_data + 1584(%rip), %ymm3 vmovdqu (%rsi), %ymm4 vmovdqu 32(%rsi), %ymm5 vmovdqu (%rdi), %ymm6 vmovdqu 32(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm8 vpmulhw %ymm5, %ymm3, %ymm9 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm8, %ymm9, %ymm8 vpmullw %ymm6, %ymm4, %ymm10 vpmulhw %ymm6, %ymm4, %ymm11 vpunpcklwd %ymm11, %ymm10, %ymm9 vpunpckhwd %ymm11, %ymm10, %ymm10 vpmullw %ymm7, %ymm4, %ymm12 vpmulhw %ymm7, %ymm4, %ymm4 vpunpcklwd %ymm4, %ymm12, %ymm11 vpunpckhwd %ymm4, %ymm12, %ymm4 vpmullw %ymm6, %ymm5, %ymm12 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm12, %ymm5 vpunpckhwd %ymm6, %ymm12, %ymm6 vpmullw %ymm7, %ymm8, %ymm12 vpmulhw %ymm7, %ymm8, %ymm7 vpunpcklwd %ymm7, %ymm12, %ymm8 vpunpckhwd %ymm7, %ymm12, %ymm12 vpaddd %ymm8, %ymm9, %ymm7 vpaddd %ymm12, %ymm10, %ymm8 vpaddd %ymm11, %ymm5, %ymm5 vpaddd %ymm4, %ymm6, %ymm4 vpxor %ymm9, %ymm9, %ymm9 vpblendw $-86, %ymm9, %ymm7, %ymm6 vpblendw $-86, %ymm9, %ymm8, %ymm10 vpackusdw %ymm10, %ymm6, %ymm6 vpsrld $16, %ymm7, %ymm7 vpsrld $16, %ymm8, %ymm8 vpackusdw %ymm8, %ymm7, %ymm7 vpblendw $-86, %ymm9, %ymm5, %ymm8 vpblendw $-86, %ymm9, %ymm4, %ymm9 vpackusdw %ymm9, %ymm8, %ymm8 vpsrld $16, %ymm5, %ymm5 vpsrld $16, %ymm4, %ymm4 vpackusdw %ymm4, %ymm5, %ymm4 vpmullw %ymm1, %ymm6, %ymm5 vpmulhw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm7, %ymm5 vpmullw %ymm1, %ymm8, %ymm6 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm4, %ymm4 vmovdqu %ymm5, (%rcx) vmovdqu %ymm4, 32(%rcx) vmovdqu 64(%rsi), %ymm4 vmovdqu 96(%rsi), %ymm5 vmovdqu 64(%rdi), %ymm6 vmovdqu 96(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm2 vpmulhw %ymm5, %ymm3, %ymm3 vpmulhw %ymm0, %ymm2, %ymm2 vpsubw %ymm2, %ymm3, %ymm2 vpmullw %ymm6, %ymm4, %ymm8 vpmulhw %ymm6, %ymm4, %ymm9 vpunpcklwd %ymm9, %ymm8, %ymm3 vpunpckhwd %ymm9, %ymm8, %ymm8 vpmullw %ymm7, %ymm4, %ymm9 vpmulhw %ymm7, %ymm4, %ymm10 vpunpcklwd %ymm10, %ymm9, %ymm4 vpunpckhwd %ymm10, %ymm9, %ymm9 vpmullw %ymm6, %ymm5, %ymm10 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm10, %ymm5 vpunpckhwd %ymm6, %ymm10, %ymm6 vpmullw %ymm7, %ymm2, %ymm10 vpmulhw %ymm7, %ymm2, %ymm2 vpunpcklwd %ymm2, %ymm10, %ymm7 vpunpckhwd %ymm2, %ymm10, %ymm2 vpsubd %ymm7, %ymm3, %ymm7 vpsubd %ymm2, %ymm8, %ymm8 vpaddd %ymm4, %ymm5, %ymm2 vpaddd %ymm9, %ymm6, %ymm3 vpxor %ymm5, %ymm5, %ymm5 vpblendw $-86, %ymm5, %ymm7, %ymm4 vpblendw $-86, %ymm5, %ymm8, %ymm6 vpackusdw %ymm6, %ymm4, %ymm4 vpsrld $16, %ymm7, %ymm6 vpsrld $16, %ymm8, %ymm7 vpackusdw %ymm7, %ymm6, %ymm6 vpblendw $-86, %ymm5, %ymm2, %ymm7 vpblendw $-86, %ymm5, %ymm3, %ymm5 vpackusdw %ymm5, %ymm7, %ymm5 vpsrld $16, %ymm2, %ymm2 vpsrld $16, %ymm3, %ymm3 vpackusdw %ymm3, %ymm2, %ymm2 vpmullw %ymm1, %ymm4, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm6, %ymm3 vpmullw %ymm1, %ymm5, %ymm4 vpmulhw %ymm0, %ymm4, %ymm4 vpsubw %ymm4, %ymm2, %ymm2 vmovdqu %ymm3, 64(%rcx) vmovdqu %ymm2, 96(%rcx) vmovdqu glob_data + 1616(%rip), %ymm2 vmovdqu glob_data + 1648(%rip), %ymm3 vmovdqu 128(%rsi), %ymm4 vmovdqu 160(%rsi), %ymm5 vmovdqu 128(%rdi), %ymm6 vmovdqu 160(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm8 vpmulhw %ymm5, %ymm3, %ymm9 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm8, %ymm9, %ymm8 vpmullw %ymm6, %ymm4, %ymm10 vpmulhw %ymm6, %ymm4, %ymm11 vpunpcklwd %ymm11, %ymm10, %ymm9 vpunpckhwd %ymm11, %ymm10, %ymm10 vpmullw %ymm7, %ymm4, %ymm12 vpmulhw %ymm7, %ymm4, %ymm4 vpunpcklwd %ymm4, %ymm12, %ymm11 vpunpckhwd %ymm4, %ymm12, %ymm4 vpmullw %ymm6, %ymm5, %ymm12 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm12, %ymm5 vpunpckhwd %ymm6, %ymm12, %ymm6 vpmullw %ymm7, %ymm8, %ymm12 vpmulhw %ymm7, %ymm8, %ymm7 vpunpcklwd %ymm7, %ymm12, %ymm8 vpunpckhwd %ymm7, %ymm12, %ymm12 vpaddd %ymm8, %ymm9, %ymm7 vpaddd %ymm12, %ymm10, %ymm8 vpaddd %ymm11, %ymm5, %ymm5 vpaddd %ymm4, %ymm6, %ymm4 vpxor %ymm9, %ymm9, %ymm9 vpblendw $-86, %ymm9, %ymm7, %ymm6 vpblendw $-86, %ymm9, %ymm8, %ymm10 vpackusdw %ymm10, %ymm6, %ymm6 vpsrld $16, %ymm7, %ymm7 vpsrld $16, %ymm8, %ymm8 vpackusdw %ymm8, %ymm7, %ymm7 vpblendw $-86, %ymm9, %ymm5, %ymm8 vpblendw $-86, %ymm9, %ymm4, %ymm9 vpackusdw %ymm9, %ymm8, %ymm8 vpsrld $16, %ymm5, %ymm5 vpsrld $16, %ymm4, %ymm4 vpackusdw %ymm4, %ymm5, %ymm4 vpmullw %ymm1, %ymm6, %ymm5 vpmulhw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm7, %ymm5 vpmullw %ymm1, %ymm8, %ymm6 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm4, %ymm4 vmovdqu %ymm5, 128(%rcx) vmovdqu %ymm4, 160(%rcx) vmovdqu 192(%rsi), %ymm4 vmovdqu 224(%rsi), %ymm5 vmovdqu 192(%rdi), %ymm6 vmovdqu 224(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm2 vpmulhw %ymm5, %ymm3, %ymm3 vpmulhw %ymm0, %ymm2, %ymm2 vpsubw %ymm2, %ymm3, %ymm2 vpmullw %ymm6, %ymm4, %ymm8 vpmulhw %ymm6, %ymm4, %ymm9 vpunpcklwd %ymm9, %ymm8, %ymm3 vpunpckhwd %ymm9, %ymm8, %ymm8 vpmullw %ymm7, %ymm4, %ymm9 vpmulhw %ymm7, %ymm4, %ymm10 vpunpcklwd %ymm10, %ymm9, %ymm4 vpunpckhwd %ymm10, %ymm9, %ymm9 vpmullw %ymm6, %ymm5, %ymm10 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm10, %ymm5 vpunpckhwd %ymm6, %ymm10, %ymm6 vpmullw %ymm7, %ymm2, %ymm10 vpmulhw %ymm7, %ymm2, %ymm2 vpunpcklwd %ymm2, %ymm10, %ymm7 vpunpckhwd %ymm2, %ymm10, %ymm2 vpsubd %ymm7, %ymm3, %ymm7 vpsubd %ymm2, %ymm8, %ymm8 vpaddd %ymm4, %ymm5, %ymm2 vpaddd %ymm9, %ymm6, %ymm3 vpxor %ymm5, %ymm5, %ymm5 vpblendw $-86, %ymm5, %ymm7, %ymm4 vpblendw $-86, %ymm5, %ymm8, %ymm6 vpackusdw %ymm6, %ymm4, %ymm4 vpsrld $16, %ymm7, %ymm6 vpsrld $16, %ymm8, %ymm7 vpackusdw %ymm7, %ymm6, %ymm6 vpblendw $-86, %ymm5, %ymm2, %ymm7 vpblendw $-86, %ymm5, %ymm3, %ymm5 vpackusdw %ymm5, %ymm7, %ymm5 vpsrld $16, %ymm2, %ymm2 vpsrld $16, %ymm3, %ymm3 vpackusdw %ymm3, %ymm2, %ymm2 vpmullw %ymm1, %ymm4, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm6, %ymm3 vpmullw %ymm1, %ymm5, %ymm4 vpmulhw %ymm0, %ymm4, %ymm4 vpsubw %ymm4, %ymm2, %ymm2 vmovdqu %ymm3, 192(%rcx) vmovdqu %ymm2, 224(%rcx) vmovdqu glob_data + 1944(%rip), %ymm2 vmovdqu glob_data + 1976(%rip), %ymm3 vmovdqu 256(%rsi), %ymm4 vmovdqu 288(%rsi), %ymm5 vmovdqu 256(%rdi), %ymm6 vmovdqu 288(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm8 vpmulhw %ymm5, %ymm3, %ymm9 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm8, %ymm9, %ymm8 vpmullw %ymm6, %ymm4, %ymm10 vpmulhw %ymm6, %ymm4, %ymm11 vpunpcklwd %ymm11, %ymm10, %ymm9 vpunpckhwd %ymm11, %ymm10, %ymm10 vpmullw %ymm7, %ymm4, %ymm12 vpmulhw %ymm7, %ymm4, %ymm4 vpunpcklwd %ymm4, %ymm12, %ymm11 vpunpckhwd %ymm4, %ymm12, %ymm4 vpmullw %ymm6, %ymm5, %ymm12 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm12, %ymm5 vpunpckhwd %ymm6, %ymm12, %ymm6 vpmullw %ymm7, %ymm8, %ymm12 vpmulhw %ymm7, %ymm8, %ymm7 vpunpcklwd %ymm7, %ymm12, %ymm8 vpunpckhwd %ymm7, %ymm12, %ymm12 vpaddd %ymm8, %ymm9, %ymm7 vpaddd %ymm12, %ymm10, %ymm8 vpaddd %ymm11, %ymm5, %ymm5 vpaddd %ymm4, %ymm6, %ymm4 vpxor %ymm9, %ymm9, %ymm9 vpblendw $-86, %ymm9, %ymm7, %ymm6 vpblendw $-86, %ymm9, %ymm8, %ymm10 vpackusdw %ymm10, %ymm6, %ymm6 vpsrld $16, %ymm7, %ymm7 vpsrld $16, %ymm8, %ymm8 vpackusdw %ymm8, %ymm7, %ymm7 vpblendw $-86, %ymm9, %ymm5, %ymm8 vpblendw $-86, %ymm9, %ymm4, %ymm9 vpackusdw %ymm9, %ymm8, %ymm8 vpsrld $16, %ymm5, %ymm5 vpsrld $16, %ymm4, %ymm4 vpackusdw %ymm4, %ymm5, %ymm4 vpmullw %ymm1, %ymm6, %ymm5 vpmulhw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm7, %ymm5 vpmullw %ymm1, %ymm8, %ymm6 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm4, %ymm4 vmovdqu %ymm5, 256(%rcx) vmovdqu %ymm4, 288(%rcx) vmovdqu 320(%rsi), %ymm4 vmovdqu 352(%rsi), %ymm5 vmovdqu 320(%rdi), %ymm6 vmovdqu 352(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm2 vpmulhw %ymm5, %ymm3, %ymm3 vpmulhw %ymm0, %ymm2, %ymm2 vpsubw %ymm2, %ymm3, %ymm2 vpmullw %ymm6, %ymm4, %ymm8 vpmulhw %ymm6, %ymm4, %ymm9 vpunpcklwd %ymm9, %ymm8, %ymm3 vpunpckhwd %ymm9, %ymm8, %ymm8 vpmullw %ymm7, %ymm4, %ymm9 vpmulhw %ymm7, %ymm4, %ymm10 vpunpcklwd %ymm10, %ymm9, %ymm4 vpunpckhwd %ymm10, %ymm9, %ymm9 vpmullw %ymm6, %ymm5, %ymm10 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm10, %ymm5 vpunpckhwd %ymm6, %ymm10, %ymm6 vpmullw %ymm7, %ymm2, %ymm10 vpmulhw %ymm7, %ymm2, %ymm2 vpunpcklwd %ymm2, %ymm10, %ymm7 vpunpckhwd %ymm2, %ymm10, %ymm2 vpsubd %ymm7, %ymm3, %ymm7 vpsubd %ymm2, %ymm8, %ymm8 vpaddd %ymm4, %ymm5, %ymm2 vpaddd %ymm9, %ymm6, %ymm3 vpxor %ymm5, %ymm5, %ymm5 vpblendw $-86, %ymm5, %ymm7, %ymm4 vpblendw $-86, %ymm5, %ymm8, %ymm6 vpackusdw %ymm6, %ymm4, %ymm4 vpsrld $16, %ymm7, %ymm6 vpsrld $16, %ymm8, %ymm7 vpackusdw %ymm7, %ymm6, %ymm6 vpblendw $-86, %ymm5, %ymm2, %ymm7 vpblendw $-86, %ymm5, %ymm3, %ymm5 vpackusdw %ymm5, %ymm7, %ymm5 vpsrld $16, %ymm2, %ymm2 vpsrld $16, %ymm3, %ymm3 vpackusdw %ymm3, %ymm2, %ymm2 vpmullw %ymm1, %ymm4, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm6, %ymm3 vpmullw %ymm1, %ymm5, %ymm4 vpmulhw %ymm0, %ymm4, %ymm4 vpsubw %ymm4, %ymm2, %ymm2 vmovdqu %ymm3, 320(%rcx) vmovdqu %ymm2, 352(%rcx) vmovdqu glob_data + 2008(%rip), %ymm2 vmovdqu glob_data + 2040(%rip), %ymm3 vmovdqu 384(%rsi), %ymm4 vmovdqu 416(%rsi), %ymm5 vmovdqu 384(%rdi), %ymm6 vmovdqu 416(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm8 vpmulhw %ymm5, %ymm3, %ymm9 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm8, %ymm9, %ymm8 vpmullw %ymm6, %ymm4, %ymm10 vpmulhw %ymm6, %ymm4, %ymm11 vpunpcklwd %ymm11, %ymm10, %ymm9 vpunpckhwd %ymm11, %ymm10, %ymm10 vpmullw %ymm7, %ymm4, %ymm12 vpmulhw %ymm7, %ymm4, %ymm4 vpunpcklwd %ymm4, %ymm12, %ymm11 vpunpckhwd %ymm4, %ymm12, %ymm4 vpmullw %ymm6, %ymm5, %ymm12 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm12, %ymm5 vpunpckhwd %ymm6, %ymm12, %ymm6 vpmullw %ymm7, %ymm8, %ymm12 vpmulhw %ymm7, %ymm8, %ymm7 vpunpcklwd %ymm7, %ymm12, %ymm8 vpunpckhwd %ymm7, %ymm12, %ymm12 vpaddd %ymm8, %ymm9, %ymm7 vpaddd %ymm12, %ymm10, %ymm8 vpaddd %ymm11, %ymm5, %ymm5 vpaddd %ymm4, %ymm6, %ymm4 vpxor %ymm9, %ymm9, %ymm9 vpblendw $-86, %ymm9, %ymm7, %ymm6 vpblendw $-86, %ymm9, %ymm8, %ymm10 vpackusdw %ymm10, %ymm6, %ymm6 vpsrld $16, %ymm7, %ymm7 vpsrld $16, %ymm8, %ymm8 vpackusdw %ymm8, %ymm7, %ymm7 vpblendw $-86, %ymm9, %ymm5, %ymm8 vpblendw $-86, %ymm9, %ymm4, %ymm9 vpackusdw %ymm9, %ymm8, %ymm8 vpsrld $16, %ymm5, %ymm5 vpsrld $16, %ymm4, %ymm4 vpackusdw %ymm4, %ymm5, %ymm4 vpmullw %ymm1, %ymm6, %ymm5 vpmulhw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm7, %ymm5 vpmullw %ymm1, %ymm8, %ymm6 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm4, %ymm4 vmovdqu %ymm5, 384(%rcx) vmovdqu %ymm4, 416(%rcx) vmovdqu 448(%rsi), %ymm4 vmovdqu 480(%rsi), %ymm5 vmovdqu 448(%rdi), %ymm6 vmovdqu 480(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm2 vpmulhw %ymm5, %ymm3, %ymm3 vpmulhw %ymm0, %ymm2, %ymm2 vpsubw %ymm2, %ymm3, %ymm2 vpmullw %ymm6, %ymm4, %ymm8 vpmulhw %ymm6, %ymm4, %ymm9 vpunpcklwd %ymm9, %ymm8, %ymm3 vpunpckhwd %ymm9, %ymm8, %ymm8 vpmullw %ymm7, %ymm4, %ymm9 vpmulhw %ymm7, %ymm4, %ymm10 vpunpcklwd %ymm10, %ymm9, %ymm4 vpunpckhwd %ymm10, %ymm9, %ymm9 vpmullw %ymm6, %ymm5, %ymm10 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm10, %ymm5 vpunpckhwd %ymm6, %ymm10, %ymm6 vpmullw %ymm7, %ymm2, %ymm10 vpmulhw %ymm7, %ymm2, %ymm2 vpunpcklwd %ymm2, %ymm10, %ymm7 vpunpckhwd %ymm2, %ymm10, %ymm2 vpsubd %ymm7, %ymm3, %ymm7 vpsubd %ymm2, %ymm8, %ymm8 vpaddd %ymm4, %ymm5, %ymm2 vpaddd %ymm9, %ymm6, %ymm3 vpxor %ymm5, %ymm5, %ymm5 vpblendw $-86, %ymm5, %ymm7, %ymm4 vpblendw $-86, %ymm5, %ymm8, %ymm6 vpackusdw %ymm6, %ymm4, %ymm4 vpsrld $16, %ymm7, %ymm6 vpsrld $16, %ymm8, %ymm7 vpackusdw %ymm7, %ymm6, %ymm6 vpblendw $-86, %ymm5, %ymm2, %ymm7 vpblendw $-86, %ymm5, %ymm3, %ymm5 vpackusdw %ymm5, %ymm7, %ymm5 vpsrld $16, %ymm2, %ymm2 vpsrld $16, %ymm3, %ymm3 vpackusdw %ymm3, %ymm2, %ymm2 vpmullw %ymm1, %ymm4, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm6, %ymm3 vpmullw %ymm1, %ymm5, %ymm1 vpmulhw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm3, 448(%rcx) vmovdqu %ymm0, 480(%rcx) jmp *%r8 L_poly_csubq$1: vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu (%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, (%rcx) vmovdqu 32(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 32(%rcx) vmovdqu 64(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 64(%rcx) vmovdqu 96(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 96(%rcx) vmovdqu 128(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 128(%rcx) vmovdqu 160(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 160(%rcx) vmovdqu 192(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 192(%rcx) vmovdqu 224(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 224(%rcx) vmovdqu 256(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 256(%rcx) vmovdqu 288(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 288(%rcx) vmovdqu 320(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 320(%rcx) vmovdqu 352(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 352(%rcx) vmovdqu 384(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 384(%rcx) vmovdqu 416(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 416(%rcx) vmovdqu 448(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 448(%rcx) vmovdqu 480(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm0 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 480(%rcx) jmp *%r8 L_poly_add2$1: vmovdqu (%rcx), %ymm0 vmovdqu (%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, (%rcx) vmovdqu 32(%rcx), %ymm0 vmovdqu 32(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 32(%rcx) vmovdqu 64(%rcx), %ymm0 vmovdqu 64(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 64(%rcx) vmovdqu 96(%rcx), %ymm0 vmovdqu 96(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 96(%rcx) vmovdqu 128(%rcx), %ymm0 vmovdqu 128(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 128(%rcx) vmovdqu 160(%rcx), %ymm0 vmovdqu 160(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 160(%rcx) vmovdqu 192(%rcx), %ymm0 vmovdqu 192(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 192(%rcx) vmovdqu 224(%rcx), %ymm0 vmovdqu 224(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 224(%rcx) vmovdqu 256(%rcx), %ymm0 vmovdqu 256(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 256(%rcx) vmovdqu 288(%rcx), %ymm0 vmovdqu 288(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 288(%rcx) vmovdqu 320(%rcx), %ymm0 vmovdqu 320(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 320(%rcx) vmovdqu 352(%rcx), %ymm0 vmovdqu 352(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 352(%rcx) vmovdqu 384(%rcx), %ymm0 vmovdqu 384(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 384(%rcx) vmovdqu 416(%rcx), %ymm0 vmovdqu 416(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 416(%rcx) vmovdqu 448(%rcx), %ymm0 vmovdqu 448(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 448(%rcx) vmovdqu 480(%rcx), %ymm0 vmovdqu 480(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 480(%rcx) jmp *%rdi L_nttunpack$1: vmovdqu (%rax), %ymm1 vmovdqu 32(%rax), %ymm3 vmovdqu 64(%rax), %ymm4 vmovdqu 96(%rax), %ymm5 vmovdqu 128(%rax), %ymm2 vmovdqu 160(%rax), %ymm6 vmovdqu 192(%rax), %ymm7 vmovdqu 224(%rax), %ymm8 vperm2i128 $32, %ymm2, %ymm1, %ymm0 vperm2i128 $49, %ymm2, %ymm1, %ymm1 vperm2i128 $32, %ymm6, %ymm3, %ymm2 vperm2i128 $49, %ymm6, %ymm3, %ymm3 vperm2i128 $32, %ymm7, %ymm4, %ymm6 vperm2i128 $49, %ymm7, %ymm4, %ymm7 vperm2i128 $32, %ymm8, %ymm5, %ymm9 vperm2i128 $49, %ymm8, %ymm5, %ymm10 vpunpcklqdq %ymm6, %ymm0, %ymm4 vpunpckhqdq %ymm6, %ymm0, %ymm5 vpunpcklqdq %ymm7, %ymm1, %ymm6 vpunpckhqdq %ymm7, %ymm1, %ymm7 vpunpcklqdq %ymm9, %ymm2, %ymm0 vpunpckhqdq %ymm9, %ymm2, %ymm2 vpunpcklqdq %ymm10, %ymm3, %ymm8 vpunpckhqdq %ymm10, %ymm3, %ymm3 vmovsldup %ymm0, %ymm1 vpblendd $-86, %ymm1, %ymm4, %ymm9 vpsrlq $32, %ymm4, %ymm1 vpblendd $-86, %ymm0, %ymm1, %ymm0 vmovsldup %ymm2, %ymm1 vpblendd $-86, %ymm1, %ymm5, %ymm1 vpsrlq $32, %ymm5, %ymm4 vpblendd $-86, %ymm2, %ymm4, %ymm2 vmovsldup %ymm8, %ymm4 vpblendd $-86, %ymm4, %ymm6, %ymm4 vpsrlq $32, %ymm6, %ymm5 vpblendd $-86, %ymm8, %ymm5, %ymm5 vmovsldup %ymm3, %ymm6 vpblendd $-86, %ymm6, %ymm7, %ymm6 vpsrlq $32, %ymm7, %ymm7 vpblendd $-86, %ymm3, %ymm7, %ymm3 vpslld $16, %ymm4, %ymm7 vpblendw $-86, %ymm7, %ymm9, %ymm7 vpsrld $16, %ymm9, %ymm8 vpblendw $-86, %ymm4, %ymm8, %ymm4 vpslld $16, %ymm5, %ymm8 vpblendw $-86, %ymm8, %ymm0, %ymm8 vpsrld $16, %ymm0, %ymm0 vpblendw $-86, %ymm5, %ymm0, %ymm0 vpslld $16, %ymm6, %ymm5 vpblendw $-86, %ymm5, %ymm1, %ymm5 vpsrld $16, %ymm1, %ymm1 vpblendw $-86, %ymm6, %ymm1, %ymm1 vpslld $16, %ymm3, %ymm6 vpblendw $-86, %ymm6, %ymm2, %ymm6 vpsrld $16, %ymm2, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm2 vmovdqu %ymm7, (%rax) vmovdqu %ymm4, 32(%rax) vmovdqu %ymm8, 64(%rax) vmovdqu %ymm0, 96(%rax) vmovdqu %ymm5, 128(%rax) vmovdqu %ymm1, 160(%rax) vmovdqu %ymm6, 192(%rax) vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm1 vmovdqu 288(%rax), %ymm3 vmovdqu 320(%rax), %ymm4 vmovdqu 352(%rax), %ymm5 vmovdqu 384(%rax), %ymm2 vmovdqu 416(%rax), %ymm6 vmovdqu 448(%rax), %ymm7 vmovdqu 480(%rax), %ymm8 vperm2i128 $32, %ymm2, %ymm1, %ymm0 vperm2i128 $49, %ymm2, %ymm1, %ymm1 vperm2i128 $32, %ymm6, %ymm3, %ymm2 vperm2i128 $49, %ymm6, %ymm3, %ymm3 vperm2i128 $32, %ymm7, %ymm4, %ymm6 vperm2i128 $49, %ymm7, %ymm4, %ymm7 vperm2i128 $32, %ymm8, %ymm5, %ymm9 vperm2i128 $49, %ymm8, %ymm5, %ymm10 vpunpcklqdq %ymm6, %ymm0, %ymm4 vpunpckhqdq %ymm6, %ymm0, %ymm5 vpunpcklqdq %ymm7, %ymm1, %ymm6 vpunpckhqdq %ymm7, %ymm1, %ymm7 vpunpcklqdq %ymm9, %ymm2, %ymm0 vpunpckhqdq %ymm9, %ymm2, %ymm2 vpunpcklqdq %ymm10, %ymm3, %ymm8 vpunpckhqdq %ymm10, %ymm3, %ymm3 vmovsldup %ymm0, %ymm1 vpblendd $-86, %ymm1, %ymm4, %ymm9 vpsrlq $32, %ymm4, %ymm1 vpblendd $-86, %ymm0, %ymm1, %ymm0 vmovsldup %ymm2, %ymm1 vpblendd $-86, %ymm1, %ymm5, %ymm1 vpsrlq $32, %ymm5, %ymm4 vpblendd $-86, %ymm2, %ymm4, %ymm2 vmovsldup %ymm8, %ymm4 vpblendd $-86, %ymm4, %ymm6, %ymm4 vpsrlq $32, %ymm6, %ymm5 vpblendd $-86, %ymm8, %ymm5, %ymm5 vmovsldup %ymm3, %ymm6 vpblendd $-86, %ymm6, %ymm7, %ymm6 vpsrlq $32, %ymm7, %ymm7 vpblendd $-86, %ymm3, %ymm7, %ymm3 vpslld $16, %ymm4, %ymm7 vpblendw $-86, %ymm7, %ymm9, %ymm7 vpsrld $16, %ymm9, %ymm8 vpblendw $-86, %ymm4, %ymm8, %ymm4 vpslld $16, %ymm5, %ymm8 vpblendw $-86, %ymm8, %ymm0, %ymm8 vpsrld $16, %ymm0, %ymm0 vpblendw $-86, %ymm5, %ymm0, %ymm0 vpslld $16, %ymm6, %ymm5 vpblendw $-86, %ymm5, %ymm1, %ymm5 vpsrld $16, %ymm1, %ymm1 vpblendw $-86, %ymm6, %ymm1, %ymm1 vpslld $16, %ymm3, %ymm6 vpblendw $-86, %ymm6, %ymm2, %ymm6 vpsrld $16, %ymm2, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm2 vmovdqu %ymm7, 256(%rax) vmovdqu %ymm4, 288(%rax) vmovdqu %ymm8, 320(%rax) vmovdqu %ymm0, 352(%rax) vmovdqu %ymm5, 384(%rax) vmovdqu %ymm1, 416(%rax) vmovdqu %ymm6, 448(%rax) vmovdqu %ymm2, 480(%rax) jmp *%rcx L_nttpack$1: vmovdqu (%rax), %ymm0 vmovdqu 32(%rax), %ymm1 vmovdqu 64(%rax), %ymm8 vmovdqu 96(%rax), %ymm9 vmovdqu 128(%rax), %ymm2 vmovdqu 160(%rax), %ymm3 vmovdqu 192(%rax), %ymm4 vmovdqu 224(%rax), %ymm5 vpslld $16, %ymm1, %ymm6 vpblendw $-86, %ymm6, %ymm0, %ymm6 vpsrld $16, %ymm0, %ymm0 vpblendw $-86, %ymm1, %ymm0, %ymm0 vpslld $16, %ymm9, %ymm1 vpblendw $-86, %ymm1, %ymm8, %ymm7 vpsrld $16, %ymm8, %ymm1 vpblendw $-86, %ymm9, %ymm1, %ymm1 vpslld $16, %ymm3, %ymm8 vpblendw $-86, %ymm8, %ymm2, %ymm8 vpsrld $16, %ymm2, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm2 vpslld $16, %ymm5, %ymm3 vpblendw $-86, %ymm3, %ymm4, %ymm3 vpsrld $16, %ymm4, %ymm4 vpblendw $-86, %ymm5, %ymm4, %ymm4 vmovsldup %ymm7, %ymm5 vpblendd $-86, %ymm5, %ymm6, %ymm5 vpsrlq $32, %ymm6, %ymm6 vpblendd $-86, %ymm7, %ymm6, %ymm6 vmovsldup %ymm3, %ymm7 vpblendd $-86, %ymm7, %ymm8, %ymm7 vpsrlq $32, %ymm8, %ymm8 vpblendd $-86, %ymm3, %ymm8, %ymm3 vmovsldup %ymm1, %ymm8 vpblendd $-86, %ymm8, %ymm0, %ymm8 vpsrlq $32, %ymm0, %ymm0 vpblendd $-86, %ymm1, %ymm0, %ymm0 vmovsldup %ymm4, %ymm1 vpblendd $-86, %ymm1, %ymm2, %ymm9 vpsrlq $32, %ymm2, %ymm1 vpblendd $-86, %ymm4, %ymm1, %ymm10 vpunpcklqdq %ymm7, %ymm5, %ymm1 vpunpckhqdq %ymm7, %ymm5, %ymm2 vpunpcklqdq %ymm9, %ymm8, %ymm5 vpunpckhqdq %ymm9, %ymm8, %ymm4 vpunpcklqdq %ymm3, %ymm6, %ymm7 vpunpckhqdq %ymm3, %ymm6, %ymm3 vpunpcklqdq %ymm10, %ymm0, %ymm6 vpunpckhqdq %ymm10, %ymm0, %ymm0 vperm2i128 $32, %ymm5, %ymm1, %ymm8 vperm2i128 $49, %ymm5, %ymm1, %ymm1 vperm2i128 $32, %ymm6, %ymm7, %ymm5 vperm2i128 $49, %ymm6, %ymm7, %ymm6 vperm2i128 $32, %ymm4, %ymm2, %ymm7 vperm2i128 $49, %ymm4, %ymm2, %ymm2 vperm2i128 $32, %ymm0, %ymm3, %ymm4 vperm2i128 $49, %ymm0, %ymm3, %ymm0 vmovdqu %ymm8, (%rax) vmovdqu %ymm5, 32(%rax) vmovdqu %ymm7, 64(%rax) vmovdqu %ymm4, 96(%rax) vmovdqu %ymm1, 128(%rax) vmovdqu %ymm6, 160(%rax) vmovdqu %ymm2, 192(%rax) vmovdqu %ymm0, 224(%rax) vmovdqu 256(%rax), %ymm0 vmovdqu 288(%rax), %ymm1 vmovdqu 320(%rax), %ymm8 vmovdqu 352(%rax), %ymm9 vmovdqu 384(%rax), %ymm2 vmovdqu 416(%rax), %ymm3 vmovdqu 448(%rax), %ymm4 vmovdqu 480(%rax), %ymm5 vpslld $16, %ymm1, %ymm6 vpblendw $-86, %ymm6, %ymm0, %ymm6 vpsrld $16, %ymm0, %ymm0 vpblendw $-86, %ymm1, %ymm0, %ymm0 vpslld $16, %ymm9, %ymm1 vpblendw $-86, %ymm1, %ymm8, %ymm7 vpsrld $16, %ymm8, %ymm1 vpblendw $-86, %ymm9, %ymm1, %ymm1 vpslld $16, %ymm3, %ymm8 vpblendw $-86, %ymm8, %ymm2, %ymm8 vpsrld $16, %ymm2, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm2 vpslld $16, %ymm5, %ymm3 vpblendw $-86, %ymm3, %ymm4, %ymm3 vpsrld $16, %ymm4, %ymm4 vpblendw $-86, %ymm5, %ymm4, %ymm4 vmovsldup %ymm7, %ymm5 vpblendd $-86, %ymm5, %ymm6, %ymm5 vpsrlq $32, %ymm6, %ymm6 vpblendd $-86, %ymm7, %ymm6, %ymm6 vmovsldup %ymm3, %ymm7 vpblendd $-86, %ymm7, %ymm8, %ymm7 vpsrlq $32, %ymm8, %ymm8 vpblendd $-86, %ymm3, %ymm8, %ymm3 vmovsldup %ymm1, %ymm8 vpblendd $-86, %ymm8, %ymm0, %ymm8 vpsrlq $32, %ymm0, %ymm0 vpblendd $-86, %ymm1, %ymm0, %ymm0 vmovsldup %ymm4, %ymm1 vpblendd $-86, %ymm1, %ymm2, %ymm9 vpsrlq $32, %ymm2, %ymm1 vpblendd $-86, %ymm4, %ymm1, %ymm10 vpunpcklqdq %ymm7, %ymm5, %ymm1 vpunpckhqdq %ymm7, %ymm5, %ymm2 vpunpcklqdq %ymm9, %ymm8, %ymm5 vpunpckhqdq %ymm9, %ymm8, %ymm4 vpunpcklqdq %ymm3, %ymm6, %ymm7 vpunpckhqdq %ymm3, %ymm6, %ymm3 vpunpcklqdq %ymm10, %ymm0, %ymm6 vpunpckhqdq %ymm10, %ymm0, %ymm0 vperm2i128 $32, %ymm5, %ymm1, %ymm8 vperm2i128 $49, %ymm5, %ymm1, %ymm1 vperm2i128 $32, %ymm6, %ymm7, %ymm5 vperm2i128 $49, %ymm6, %ymm7, %ymm6 vperm2i128 $32, %ymm4, %ymm2, %ymm7 vperm2i128 $49, %ymm4, %ymm2, %ymm2 vperm2i128 $32, %ymm0, %ymm3, %ymm4 vperm2i128 $49, %ymm0, %ymm3, %ymm0 vmovdqu %ymm8, 256(%rax) vmovdqu %ymm5, 288(%rax) vmovdqu %ymm7, 320(%rax) vmovdqu %ymm4, 352(%rax) vmovdqu %ymm1, 384(%rax) vmovdqu %ymm6, 416(%rax) vmovdqu %ymm2, 448(%rax) vmovdqu %ymm0, 480(%rax) jmp *%rcx L_shake256_absorb4x_33$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 32(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 64(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 96(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 128(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 160(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 192(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 224(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 256(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 288(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 320(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 352(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 384(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 416(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 448(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 480(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 512(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 544(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 576(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 608(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 640(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 672(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 704(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 736(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 768(%rax) movq (%rcx), %rbx xorq %rbx, (%rax) movq (%rdx), %rbx xorq %rbx, 8(%rax) movq (%rsi), %rbx xorq %rbx, 16(%rax) movq (%r11), %rbx xorq %rbx, 24(%rax) movq 8(%rcx), %rbx xorq %rbx, 32(%rax) movq 8(%rdx), %rbx xorq %rbx, 40(%rax) movq 8(%rsi), %rbx xorq %rbx, 48(%rax) movq 8(%r11), %rbx xorq %rbx, 56(%rax) movq 16(%rcx), %rbx xorq %rbx, 64(%rax) movq 16(%rdx), %rbx xorq %rbx, 72(%rax) movq 16(%rsi), %rbx xorq %rbx, 80(%rax) movq 16(%r11), %rbx xorq %rbx, 88(%rax) movq 24(%rcx), %rbx xorq %rbx, 96(%rax) movq 24(%rdx), %rbx xorq %rbx, 104(%rax) movq 24(%rsi), %rbx xorq %rbx, 112(%rax) movq 24(%r11), %rbx xorq %rbx, 120(%rax) movb 32(%rcx), %cl xorb %cl, 128(%rax) xorb $31, 129(%rax) movb 32(%rdx), %cl xorb %cl, 136(%rax) xorb $31, 137(%rax) movb 32(%rsi), %cl xorb %cl, 144(%rax) xorb $31, 145(%rax) movb 32(%r11), %cl xorb %cl, 152(%rax) xorb $31, 153(%rax) vmovdqu glob_data + 2080(%rip), %ymm0 vmovdqu 512(%rax), %ymm1 vpxor %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 512(%rax) jmp *(%rsp) L_shake128_absorb4x_34$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 32(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 64(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 96(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 128(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 160(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 192(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 224(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 256(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 288(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 320(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 352(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 384(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 416(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 448(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 480(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 512(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 544(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 576(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 608(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 640(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 672(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 704(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 736(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 768(%rax) movq (%rcx), %r8 xorq %r8, (%rax) movq (%rdx), %r8 xorq %r8, 8(%rax) movq (%rsi), %r8 xorq %r8, 16(%rax) movq (%rdi), %r8 xorq %r8, 24(%rax) movq 8(%rcx), %r8 xorq %r8, 32(%rax) movq 8(%rdx), %r8 xorq %r8, 40(%rax) movq 8(%rsi), %r8 xorq %r8, 48(%rax) movq 8(%rdi), %r8 xorq %r8, 56(%rax) movq 16(%rcx), %r8 xorq %r8, 64(%rax) movq 16(%rdx), %r8 xorq %r8, 72(%rax) movq 16(%rsi), %r8 xorq %r8, 80(%rax) movq 16(%rdi), %r8 xorq %r8, 88(%rax) movq 24(%rcx), %r8 xorq %r8, 96(%rax) movq 24(%rdx), %r8 xorq %r8, 104(%rax) movq 24(%rsi), %r8 xorq %r8, 112(%rax) movq 24(%rdi), %r8 xorq %r8, 120(%rax) movw 32(%rcx), %cx xorw %cx, 128(%rax) xorb $31, 130(%rax) movw 32(%rdx), %cx xorw %cx, 136(%rax) xorb $31, 138(%rax) movw 32(%rsi), %cx xorw %cx, 144(%rax) xorb $31, 146(%rax) movw 32(%rdi), %cx xorw %cx, 152(%rax) xorb $31, 154(%rax) vmovdqu glob_data + 2080(%rip), %ymm0 vmovdqu 640(%rax), %ymm1 vpxor %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 640(%rax) jmp *(%rsp) L_keccakf1600_4x_avx2$1: movq %rsp, %rcx leaq glob_data + 2176(%rip), %rdx vmovdqu glob_data + 2112(%rip), %ymm0 vmovdqu glob_data + 2144(%rip), %ymm1 movq $0, %rsi L_keccakf1600_4x_avx2$2: vmovdqu (%rdx,%rsi), %ymm2 vmovdqu (%rax), %ymm3 vmovdqu 32(%rax), %ymm4 vmovdqu 64(%rax), %ymm5 vmovdqu 96(%rax), %ymm6 vmovdqu 128(%rax), %ymm7 vpxor 160(%rax), %ymm3, %ymm3 vpxor 192(%rax), %ymm4, %ymm4 vpxor 224(%rax), %ymm5, %ymm5 vpxor 256(%rax), %ymm6, %ymm6 vpxor 288(%rax), %ymm7, %ymm7 vpxor 320(%rax), %ymm3, %ymm3 vpxor 352(%rax), %ymm4, %ymm4 vpxor 384(%rax), %ymm5, %ymm5 vpxor 416(%rax), %ymm6, %ymm6 vpxor 448(%rax), %ymm7, %ymm7 vpxor 480(%rax), %ymm3, %ymm3 vpxor 512(%rax), %ymm4, %ymm4 vpxor 544(%rax), %ymm5, %ymm8 vpxor 576(%rax), %ymm6, %ymm9 vpxor 608(%rax), %ymm7, %ymm10 vpxor 640(%rax), %ymm3, %ymm7 vpxor 672(%rax), %ymm4, %ymm5 vpxor 704(%rax), %ymm8, %ymm6 vpxor 736(%rax), %ymm9, %ymm8 vpxor 768(%rax), %ymm10, %ymm9 vmovdqu %ymm5, %ymm3 vpsllq $1, %ymm3, %ymm4 vpsrlq $63, %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm3 vpxor %ymm9, %ymm3, %ymm3 vmovdqu %ymm6, %ymm4 vpsllq $1, %ymm4, %ymm10 vpsrlq $63, %ymm4, %ymm4 vpor %ymm10, %ymm4, %ymm4 vpxor %ymm7, %ymm4, %ymm4 vmovdqu %ymm8, %ymm10 vpsllq $1, %ymm10, %ymm11 vpsrlq $63, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vpxor %ymm5, %ymm10, %ymm5 vpsllq $1, %ymm9, %ymm10 vpsrlq $63, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vpxor %ymm6, %ymm9, %ymm6 vpsllq $1, %ymm7, %ymm9 vpsrlq $63, %ymm7, %ymm7 vpor %ymm9, %ymm7, %ymm7 vpxor %ymm8, %ymm7, %ymm7 vmovdqu (%rax), %ymm8 vpxor %ymm3, %ymm8, %ymm8 vmovdqu 192(%rax), %ymm9 vpxor %ymm4, %ymm9, %ymm9 vpsllq $44, %ymm9, %ymm10 vpsrlq $20, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 384(%rax), %ymm10 vpxor %ymm5, %ymm10, %ymm10 vpsllq $43, %ymm10, %ymm11 vpsrlq $21, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vmovdqu 576(%rax), %ymm11 vpxor %ymm6, %ymm11, %ymm11 vpsllq $21, %ymm11, %ymm12 vpsrlq $43, %ymm11, %ymm11 vpor %ymm12, %ymm11, %ymm11 vmovdqu 768(%rax), %ymm12 vpxor %ymm7, %ymm12, %ymm12 vpsllq $14, %ymm12, %ymm13 vpsrlq $50, %ymm12, %ymm12 vpor %ymm13, %ymm12, %ymm12 vpandn %ymm10, %ymm9, %ymm13 vpxor %ymm8, %ymm13, %ymm13 vpxor %ymm2, %ymm13, %ymm2 vmovdqu %ymm2, (%rcx) vpandn %ymm11, %ymm10, %ymm2 vpxor %ymm9, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rcx) vpandn %ymm12, %ymm11, %ymm2 vpxor %ymm10, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rcx) vpandn %ymm8, %ymm12, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rcx) vpandn %ymm9, %ymm8, %ymm2 vpxor %ymm12, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rcx) vmovdqu 96(%rax), %ymm2 vpxor %ymm6, %ymm2, %ymm2 vpsllq $28, %ymm2, %ymm8 vpsrlq $36, %ymm2, %ymm2 vpor %ymm8, %ymm2, %ymm2 vmovdqu 288(%rax), %ymm8 vpxor %ymm7, %ymm8, %ymm8 vpsllq $20, %ymm8, %ymm9 vpsrlq $44, %ymm8, %ymm8 vpor %ymm9, %ymm8, %ymm8 vmovdqu 320(%rax), %ymm9 vpxor %ymm3, %ymm9, %ymm9 vpsllq $3, %ymm9, %ymm10 vpsrlq $61, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 512(%rax), %ymm10 vpxor %ymm4, %ymm10, %ymm10 vpsllq $45, %ymm10, %ymm11 vpsrlq $19, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vmovdqu 704(%rax), %ymm11 vpxor %ymm5, %ymm11, %ymm11 vpsllq $61, %ymm11, %ymm12 vpsrlq $3, %ymm11, %ymm11 vpor %ymm12, %ymm11, %ymm11 vpandn %ymm9, %ymm8, %ymm12 vpxor %ymm2, %ymm12, %ymm12 vmovdqu %ymm12, 160(%rcx) vpandn %ymm10, %ymm9, %ymm12 vpxor %ymm8, %ymm12, %ymm12 vmovdqu %ymm12, 192(%rcx) vpandn %ymm11, %ymm10, %ymm12 vpxor %ymm9, %ymm12, %ymm9 vmovdqu %ymm9, 224(%rcx) vpandn %ymm2, %ymm11, %ymm9 vpxor %ymm10, %ymm9, %ymm9 vmovdqu %ymm9, 256(%rcx) vpandn %ymm8, %ymm2, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rcx) vmovdqu 32(%rax), %ymm2 vpxor %ymm4, %ymm2, %ymm2 vpsllq $1, %ymm2, %ymm8 vpsrlq $63, %ymm2, %ymm2 vpor %ymm8, %ymm2, %ymm2 vmovdqu 224(%rax), %ymm8 vpxor %ymm5, %ymm8, %ymm8 vpsllq $6, %ymm8, %ymm9 vpsrlq $58, %ymm8, %ymm8 vpor %ymm9, %ymm8, %ymm8 vmovdqu 416(%rax), %ymm9 vpxor %ymm6, %ymm9, %ymm9 vpsllq $25, %ymm9, %ymm10 vpsrlq $39, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 608(%rax), %ymm10 vpxor %ymm7, %ymm10, %ymm10 vpshufb %ymm0, %ymm10, %ymm10 vmovdqu 640(%rax), %ymm11 vpxor %ymm3, %ymm11, %ymm11 vpsllq $18, %ymm11, %ymm12 vpsrlq $46, %ymm11, %ymm11 vpor %ymm12, %ymm11, %ymm11 vpandn %ymm9, %ymm8, %ymm12 vpxor %ymm2, %ymm12, %ymm12 vmovdqu %ymm12, 320(%rcx) vpandn %ymm10, %ymm9, %ymm12 vpxor %ymm8, %ymm12, %ymm12 vmovdqu %ymm12, 352(%rcx) vpandn %ymm11, %ymm10, %ymm12 vpxor %ymm9, %ymm12, %ymm9 vmovdqu %ymm9, 384(%rcx) vpandn %ymm2, %ymm11, %ymm9 vpxor %ymm10, %ymm9, %ymm9 vmovdqu %ymm9, 416(%rcx) vpandn %ymm8, %ymm2, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rcx) vmovdqu 128(%rax), %ymm2 vpxor %ymm7, %ymm2, %ymm2 vpsllq $27, %ymm2, %ymm8 vpsrlq $37, %ymm2, %ymm2 vpor %ymm8, %ymm2, %ymm2 vmovdqu 160(%rax), %ymm8 vpxor %ymm3, %ymm8, %ymm8 vpsllq $36, %ymm8, %ymm9 vpsrlq $28, %ymm8, %ymm8 vpor %ymm9, %ymm8, %ymm8 vmovdqu 352(%rax), %ymm9 vpxor %ymm4, %ymm9, %ymm9 vpsllq $10, %ymm9, %ymm10 vpsrlq $54, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 544(%rax), %ymm10 vpxor %ymm5, %ymm10, %ymm10 vpsllq $15, %ymm10, %ymm11 vpsrlq $49, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vmovdqu 736(%rax), %ymm11 vpxor %ymm6, %ymm11, %ymm11 vpshufb %ymm1, %ymm11, %ymm11 vpandn %ymm9, %ymm8, %ymm12 vpxor %ymm2, %ymm12, %ymm12 vmovdqu %ymm12, 480(%rcx) vpandn %ymm10, %ymm9, %ymm12 vpxor %ymm8, %ymm12, %ymm12 vmovdqu %ymm12, 512(%rcx) vpandn %ymm11, %ymm10, %ymm12 vpxor %ymm9, %ymm12, %ymm9 vmovdqu %ymm9, 544(%rcx) vpandn %ymm2, %ymm11, %ymm9 vpxor %ymm10, %ymm9, %ymm9 vmovdqu %ymm9, 576(%rcx) vpandn %ymm8, %ymm2, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 608(%rcx) vmovdqu 64(%rax), %ymm2 vpxor %ymm5, %ymm2, %ymm2 vpsllq $62, %ymm2, %ymm5 vpsrlq $2, %ymm2, %ymm2 vpor %ymm5, %ymm2, %ymm2 vmovdqu 256(%rax), %ymm5 vpxor %ymm6, %ymm5, %ymm5 vpsllq $55, %ymm5, %ymm6 vpsrlq $9, %ymm5, %ymm5 vpor %ymm6, %ymm5, %ymm5 vmovdqu 448(%rax), %ymm6 vpxor %ymm7, %ymm6, %ymm6 vpsllq $39, %ymm6, %ymm7 vpsrlq $25, %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm6 vmovdqu 480(%rax), %ymm7 vpxor %ymm3, %ymm7, %ymm3 vpsllq $41, %ymm3, %ymm7 vpsrlq $23, %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm3 vmovdqu 672(%rax), %ymm7 vpxor %ymm4, %ymm7, %ymm4 vpsllq $2, %ymm4, %ymm7 vpsrlq $62, %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpandn %ymm6, %ymm5, %ymm7 vpxor %ymm2, %ymm7, %ymm7 vmovdqu %ymm7, 640(%rcx) vpandn %ymm3, %ymm6, %ymm7 vpxor %ymm5, %ymm7, %ymm7 vmovdqu %ymm7, 672(%rcx) vpandn %ymm4, %ymm3, %ymm7 vpxor %ymm6, %ymm7, %ymm6 vmovdqu %ymm6, 704(%rcx) vpandn %ymm2, %ymm4, %ymm6 vpxor %ymm3, %ymm6, %ymm3 vmovdqu %ymm3, 736(%rcx) vpandn %ymm5, %ymm2, %ymm2 vpxor %ymm4, %ymm2, %ymm2 vmovdqu %ymm2, 768(%rcx) vmovdqu 32(%rdx,%rsi), %ymm2 vmovdqu (%rcx), %ymm3 vmovdqu 32(%rcx), %ymm4 vmovdqu 64(%rcx), %ymm5 vmovdqu 96(%rcx), %ymm6 vmovdqu 128(%rcx), %ymm7 vpxor 160(%rcx), %ymm3, %ymm3 vpxor 192(%rcx), %ymm4, %ymm4 vpxor 224(%rcx), %ymm5, %ymm5 vpxor 256(%rcx), %ymm6, %ymm6 vpxor 288(%rcx), %ymm7, %ymm7 vpxor 320(%rcx), %ymm3, %ymm3 vpxor 352(%rcx), %ymm4, %ymm4 vpxor 384(%rcx), %ymm5, %ymm5 vpxor 416(%rcx), %ymm6, %ymm6 vpxor 448(%rcx), %ymm7, %ymm7 vpxor 480(%rcx), %ymm3, %ymm3 vpxor 512(%rcx), %ymm4, %ymm4 vpxor 544(%rcx), %ymm5, %ymm8 vpxor 576(%rcx), %ymm6, %ymm9 vpxor 608(%rcx), %ymm7, %ymm10 vpxor 640(%rcx), %ymm3, %ymm7 vpxor 672(%rcx), %ymm4, %ymm5 vpxor 704(%rcx), %ymm8, %ymm6 vpxor 736(%rcx), %ymm9, %ymm8 vpxor 768(%rcx), %ymm10, %ymm9 vmovdqu %ymm5, %ymm3 vpsllq $1, %ymm3, %ymm4 vpsrlq $63, %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm3 vpxor %ymm9, %ymm3, %ymm3 vmovdqu %ymm6, %ymm4 vpsllq $1, %ymm4, %ymm10 vpsrlq $63, %ymm4, %ymm4 vpor %ymm10, %ymm4, %ymm4 vpxor %ymm7, %ymm4, %ymm4 vmovdqu %ymm8, %ymm10 vpsllq $1, %ymm10, %ymm11 vpsrlq $63, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vpxor %ymm5, %ymm10, %ymm5 vpsllq $1, %ymm9, %ymm10 vpsrlq $63, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vpxor %ymm6, %ymm9, %ymm6 vpsllq $1, %ymm7, %ymm9 vpsrlq $63, %ymm7, %ymm7 vpor %ymm9, %ymm7, %ymm7 vpxor %ymm8, %ymm7, %ymm7 vmovdqu (%rcx), %ymm8 vpxor %ymm3, %ymm8, %ymm8 vmovdqu 192(%rcx), %ymm9 vpxor %ymm4, %ymm9, %ymm9 vpsllq $44, %ymm9, %ymm10 vpsrlq $20, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 384(%rcx), %ymm10 vpxor %ymm5, %ymm10, %ymm10 vpsllq $43, %ymm10, %ymm11 vpsrlq $21, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vmovdqu 576(%rcx), %ymm11 vpxor %ymm6, %ymm11, %ymm11 vpsllq $21, %ymm11, %ymm12 vpsrlq $43, %ymm11, %ymm11 vpor %ymm12, %ymm11, %ymm11 vmovdqu 768(%rcx), %ymm12 vpxor %ymm7, %ymm12, %ymm12 vpsllq $14, %ymm12, %ymm13 vpsrlq $50, %ymm12, %ymm12 vpor %ymm13, %ymm12, %ymm12 vpandn %ymm10, %ymm9, %ymm13 vpxor %ymm8, %ymm13, %ymm13 vpxor %ymm2, %ymm13, %ymm2 vmovdqu %ymm2, (%rax) vpandn %ymm11, %ymm10, %ymm2 vpxor %ymm9, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vpandn %ymm12, %ymm11, %ymm2 vpxor %ymm10, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vpandn %ymm8, %ymm12, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vpandn %ymm9, %ymm8, %ymm2 vpxor %ymm12, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 96(%rcx), %ymm2 vpxor %ymm6, %ymm2, %ymm2 vpsllq $28, %ymm2, %ymm8 vpsrlq $36, %ymm2, %ymm2 vpor %ymm8, %ymm2, %ymm2 vmovdqu 288(%rcx), %ymm8 vpxor %ymm7, %ymm8, %ymm8 vpsllq $20, %ymm8, %ymm9 vpsrlq $44, %ymm8, %ymm8 vpor %ymm9, %ymm8, %ymm8 vmovdqu 320(%rcx), %ymm9 vpxor %ymm3, %ymm9, %ymm9 vpsllq $3, %ymm9, %ymm10 vpsrlq $61, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 512(%rcx), %ymm10 vpxor %ymm4, %ymm10, %ymm10 vpsllq $45, %ymm10, %ymm11 vpsrlq $19, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vmovdqu 704(%rcx), %ymm11 vpxor %ymm5, %ymm11, %ymm11 vpsllq $61, %ymm11, %ymm12 vpsrlq $3, %ymm11, %ymm11 vpor %ymm12, %ymm11, %ymm11 vpandn %ymm9, %ymm8, %ymm12 vpxor %ymm2, %ymm12, %ymm12 vmovdqu %ymm12, 160(%rax) vpandn %ymm10, %ymm9, %ymm12 vpxor %ymm8, %ymm12, %ymm12 vmovdqu %ymm12, 192(%rax) vpandn %ymm11, %ymm10, %ymm12 vpxor %ymm9, %ymm12, %ymm9 vmovdqu %ymm9, 224(%rax) vpandn %ymm2, %ymm11, %ymm9 vpxor %ymm10, %ymm9, %ymm9 vmovdqu %ymm9, 256(%rax) vpandn %ymm8, %ymm2, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 32(%rcx), %ymm2 vpxor %ymm4, %ymm2, %ymm2 vpsllq $1, %ymm2, %ymm8 vpsrlq $63, %ymm2, %ymm2 vpor %ymm8, %ymm2, %ymm2 vmovdqu 224(%rcx), %ymm8 vpxor %ymm5, %ymm8, %ymm8 vpsllq $6, %ymm8, %ymm9 vpsrlq $58, %ymm8, %ymm8 vpor %ymm9, %ymm8, %ymm8 vmovdqu 416(%rcx), %ymm9 vpxor %ymm6, %ymm9, %ymm9 vpsllq $25, %ymm9, %ymm10 vpsrlq $39, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 608(%rcx), %ymm10 vpxor %ymm7, %ymm10, %ymm10 vpshufb %ymm0, %ymm10, %ymm10 vmovdqu 640(%rcx), %ymm11 vpxor %ymm3, %ymm11, %ymm11 vpsllq $18, %ymm11, %ymm12 vpsrlq $46, %ymm11, %ymm11 vpor %ymm12, %ymm11, %ymm11 vpandn %ymm9, %ymm8, %ymm12 vpxor %ymm2, %ymm12, %ymm12 vmovdqu %ymm12, 320(%rax) vpandn %ymm10, %ymm9, %ymm12 vpxor %ymm8, %ymm12, %ymm12 vmovdqu %ymm12, 352(%rax) vpandn %ymm11, %ymm10, %ymm12 vpxor %ymm9, %ymm12, %ymm9 vmovdqu %ymm9, 384(%rax) vpandn %ymm2, %ymm11, %ymm9 vpxor %ymm10, %ymm9, %ymm9 vmovdqu %ymm9, 416(%rax) vpandn %ymm8, %ymm2, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 128(%rcx), %ymm2 vpxor %ymm7, %ymm2, %ymm2 vpsllq $27, %ymm2, %ymm8 vpsrlq $37, %ymm2, %ymm2 vpor %ymm8, %ymm2, %ymm2 vmovdqu 160(%rcx), %ymm8 vpxor %ymm3, %ymm8, %ymm8 vpsllq $36, %ymm8, %ymm9 vpsrlq $28, %ymm8, %ymm8 vpor %ymm9, %ymm8, %ymm8 vmovdqu 352(%rcx), %ymm9 vpxor %ymm4, %ymm9, %ymm9 vpsllq $10, %ymm9, %ymm10 vpsrlq $54, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 544(%rcx), %ymm10 vpxor %ymm5, %ymm10, %ymm10 vpsllq $15, %ymm10, %ymm11 vpsrlq $49, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vmovdqu 736(%rcx), %ymm11 vpxor %ymm6, %ymm11, %ymm11 vpshufb %ymm1, %ymm11, %ymm11 vpandn %ymm9, %ymm8, %ymm12 vpxor %ymm2, %ymm12, %ymm12 vmovdqu %ymm12, 480(%rax) vpandn %ymm10, %ymm9, %ymm12 vpxor %ymm8, %ymm12, %ymm12 vmovdqu %ymm12, 512(%rax) vpandn %ymm11, %ymm10, %ymm12 vpxor %ymm9, %ymm12, %ymm9 vmovdqu %ymm9, 544(%rax) vpandn %ymm2, %ymm11, %ymm9 vpxor %ymm10, %ymm9, %ymm9 vmovdqu %ymm9, 576(%rax) vpandn %ymm8, %ymm2, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 608(%rax) vmovdqu 64(%rcx), %ymm2 vpxor %ymm5, %ymm2, %ymm2 vpsllq $62, %ymm2, %ymm5 vpsrlq $2, %ymm2, %ymm2 vpor %ymm5, %ymm2, %ymm2 vmovdqu 256(%rcx), %ymm5 vpxor %ymm6, %ymm5, %ymm5 vpsllq $55, %ymm5, %ymm6 vpsrlq $9, %ymm5, %ymm5 vpor %ymm6, %ymm5, %ymm5 vmovdqu 448(%rcx), %ymm6 vpxor %ymm7, %ymm6, %ymm6 vpsllq $39, %ymm6, %ymm7 vpsrlq $25, %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm6 vmovdqu 480(%rcx), %ymm7 vpxor %ymm3, %ymm7, %ymm3 vpsllq $41, %ymm3, %ymm7 vpsrlq $23, %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm3 vmovdqu 672(%rcx), %ymm7 vpxor %ymm4, %ymm7, %ymm4 vpsllq $2, %ymm4, %ymm7 vpsrlq $62, %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpandn %ymm6, %ymm5, %ymm7 vpxor %ymm2, %ymm7, %ymm7 vmovdqu %ymm7, 640(%rax) vpandn %ymm3, %ymm6, %ymm7 vpxor %ymm5, %ymm7, %ymm7 vmovdqu %ymm7, 672(%rax) vpandn %ymm4, %ymm3, %ymm7 vpxor %ymm6, %ymm7, %ymm6 vmovdqu %ymm6, 704(%rax) vpandn %ymm2, %ymm4, %ymm6 vpxor %ymm3, %ymm6, %ymm3 vmovdqu %ymm3, 736(%rax) vpandn %ymm5, %ymm2, %ymm2 vpxor %ymm4, %ymm2, %ymm2 vmovdqu %ymm2, 768(%rax) addq $64, %rsi cmpq $768, %rsi jb L_keccakf1600_4x_avx2$2 jmp *800(%rsp) L_sha3_512_32$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vpbroadcastq (%rcx), %ymm6 movq 8(%rcx), %rdx movq glob_data + 6208(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 16(%rcx), %rdx movq glob_data + 6216(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 24(%rcx), %rcx movq glob_data + 6224(%rip), %rdx movq %rcx, (%rsp,%rdx,8) movq glob_data + 6232(%rip), %rcx shlq $3, %rcx movb $6, (%rsp,%rcx) movq glob_data + 6264(%rip), %rcx shlq $3, %rcx movq $71, %rdx andq $7, %rdx addq %rdx, %rcx xorb $-128, (%rsp,%rcx) vmovdqu 32(%rsp), %ymm0 vmovdqu 64(%rsp), %ymm1 vmovdqu 96(%rsp), %ymm2 vmovdqu 128(%rsp), %ymm3 vmovdqu 160(%rsp), %ymm4 vmovdqu 192(%rsp), %ymm5 leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L_sha3_512_32$2: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne L_sha3_512_32$2 vmovdqu %ymm6, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm1, 64(%rsp) vmovdqu %ymm2, 96(%rsp) vmovdqu %ymm3, 128(%rsp) vmovdqu %ymm4, 160(%rsp) vmovdqu %ymm5, 192(%rsp) movq glob_data + 6200(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) jmp *224(%rsp) L_sha3_512_64$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vpbroadcastq (%rcx), %ymm6 movq 8(%rcx), %rdx movq glob_data + 6208(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 16(%rcx), %rdx movq glob_data + 6216(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 24(%rcx), %rdx movq glob_data + 6224(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 32(%rcx), %rdx movq glob_data + 6232(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 40(%rcx), %rdx movq glob_data + 6240(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 48(%rcx), %rdx movq glob_data + 6248(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 56(%rcx), %rcx movq glob_data + 6256(%rip), %rdx movq %rcx, (%rsp,%rdx,8) movq glob_data + 6264(%rip), %rcx shlq $3, %rcx movb $6, (%rsp,%rcx) movq glob_data + 6264(%rip), %rcx shlq $3, %rcx movq $71, %rdx andq $7, %rdx addq %rdx, %rcx xorb $-128, (%rsp,%rcx) vmovdqu 32(%rsp), %ymm0 vmovdqu 64(%rsp), %ymm1 vmovdqu 96(%rsp), %ymm2 vmovdqu 128(%rsp), %ymm3 vmovdqu 160(%rsp), %ymm4 vmovdqu 192(%rsp), %ymm5 leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L_sha3_512_64$2: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne L_sha3_512_64$2 vmovdqu %ymm6, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm1, 64(%rsp) vmovdqu %ymm2, 96(%rsp) vmovdqu %ymm3, 128(%rsp) vmovdqu %ymm4, 160(%rsp) vmovdqu %ymm5, 192(%rsp) movq glob_data + 6200(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) jmp *224(%rsp) L_shake256_128_33$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vpbroadcastq (%rcx), %ymm6 movq 8(%rcx), %rdx movq glob_data + 6208(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 16(%rcx), %rdx movq glob_data + 6216(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 24(%rcx), %rdx movq glob_data + 6224(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movb 32(%rcx), %cl movq glob_data + 6232(%rip), %rdx shlq $3, %rdx movb %cl, (%rsp,%rdx) incq %rdx movb $31, (%rsp,%rdx) movq glob_data + 6328(%rip), %rcx shlq $3, %rcx movq $135, %rdx andq $7, %rdx addq %rdx, %rcx xorb $-128, (%rsp,%rcx) vmovdqu 32(%rsp), %ymm0 vmovdqu 64(%rsp), %ymm1 vmovdqu 96(%rsp), %ymm2 vmovdqu 128(%rsp), %ymm3 vmovdqu 160(%rsp), %ymm4 vmovdqu 192(%rsp), %ymm5 leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L_shake256_128_33$2: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne L_shake256_128_33$2 vmovdqu %ymm6, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm1, 64(%rsp) vmovdqu %ymm2, 96(%rsp) vmovdqu %ymm3, 128(%rsp) vmovdqu %ymm4, 160(%rsp) vmovdqu %ymm5, 192(%rsp) movq glob_data + 6200(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) jmp *224(%rsp) L_shake256_64$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vpbroadcastq (%rax), %ymm4 movq glob_data + 6208(%rip), %rsi movq 8(%rax), %rdi movq %rdi, (%rsp,%rsi,8) movq glob_data + 6216(%rip), %rsi movq 16(%rax), %rdi movq %rdi, (%rsp,%rsi,8) movq glob_data + 6224(%rip), %rsi movq 24(%rax), %rdi movq %rdi, (%rsp,%rsi,8) movq glob_data + 6232(%rip), %rsi movq 32(%rax), %rdi movq %rdi, (%rsp,%rsi,8) movq glob_data + 6240(%rip), %rsi movq 40(%rax), %rdi movq %rdi, (%rsp,%rsi,8) movq glob_data + 6248(%rip), %rsi movq 48(%rax), %rdi movq %rdi, (%rsp,%rsi,8) movq glob_data + 6256(%rip), %rsi movq 56(%rax), %rax movq %rax, (%rsp,%rsi,8) movq glob_data + 6264(%rip), %rax shlq $3, %rax movb $31, (%rsp,%rax) movq glob_data + 6328(%rip), %rax shlq $3, %rax movq $135, %rsi andq $7, %rsi addq %rsi, %rax xorb $-128, (%rsp,%rax) vmovdqu 32(%rsp), %ymm5 vmovdqu 64(%rsp), %ymm0 vmovdqu 96(%rsp), %ymm1 vmovdqu 128(%rsp), %ymm6 vmovdqu 160(%rsp), %ymm2 vmovdqu 192(%rsp), %ymm3 movq $136, %rsi leaq glob_data + 6200(%rip), %rax jmp L_shake256_64$7 L_shake256_64$8: leaq glob_data + 3328(%rip), %rdi movq $0, %r8 leaq glob_data + 3136(%rip), %r9 leaq glob_data + 2944(%rip), %r10 movq $24, %r11 L_shake256_64$11: vpshufd $78, %ymm0, %ymm8 vpxor %ymm1, %ymm2, %ymm7 vpxor %ymm3, %ymm6, %ymm9 vpxor %ymm5, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm0, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm4, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm0, %ymm0 vpxor %ymm11, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r9), %ymm0, %ymm7 vpsrlvq (%r10), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 64(%r9), %ymm1, %ymm7 vpsrlvq 64(%r10), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%r9), %ymm6, %ymm7 vpsrlvq 96(%r10), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 128(%r9), %ymm2, %ymm6 vpsrlvq 128(%r10), %ymm2, %ymm2 vpor %ymm6, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpermq $-115, %ymm0, %ymm6 vpermq $-115, %ymm1, %ymm7 vpsllvq 160(%r9), %ymm3, %ymm0 vpsrlvq 160(%r10), %ymm3, %ymm1 vpor %ymm0, %ymm1, %ymm8 vpxor %ymm9, %ymm5, %ymm0 vpermq $27, %ymm10, %ymm5 vpermq $114, %ymm2, %ymm9 vpsllvq 32(%r9), %ymm0, %ymm1 vpsrlvq 32(%r10), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm1 vpblendd $12, %ymm9, %ymm10, %ymm0 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm6, %ymm3 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm0, %ymm0 vpblendd $48, %ymm5, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm3, %ymm3 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm5, %ymm0, %ymm0 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm0, %ymm0 vpandn %ymm11, %ymm3, %ymm3 vpblendd $12, %ymm10, %ymm5, %ymm11 vpblendd $12, %ymm5, %ymm6, %ymm12 vpxor %ymm6, %ymm0, %ymm2 vpblendd $48, %ymm6, %ymm11, %ymm0 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm5, %ymm3, %ymm3 vpblendd $-64, %ymm7, %ymm0, %ymm0 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm0, %ymm0 vpxor %ymm9, %ymm0, %ymm12 vpermq $30, %ymm8, %ymm0 vpblendd $48, %ymm4, %ymm0, %ymm0 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm4, %ymm11, %ymm11 vpandn %ymm0, %ymm11, %ymm11 vpblendd $12, %ymm5, %ymm7, %ymm0 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm0, %ymm0 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm0, %ymm0 vpblendd $-64, %ymm5, %ymm13, %ymm13 vpandn %ymm13, %ymm0, %ymm0 vpxor %ymm10, %ymm0, %ymm0 vpermq $0, %ymm1, %ymm13 vpermq $27, %ymm2, %ymm1 vpermq $-115, %ymm3, %ymm2 vpermq $114, %ymm12, %ymm3 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm5, %ymm9 vpblendd $48, %ymm5, %ymm12, %ymm5 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm5, %ymm5 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm5, %ymm6 vpxor %ymm13, %ymm4, %ymm4 vpxor %ymm8, %ymm11, %ymm5 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rdi,%r8), %ymm4, %ymm4 addq $32, %r8 decq %r11 jne L_shake256_64$11 vmovdqu %ymm4, (%rsp) vmovdqu %ymm5, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm1, 96(%rsp) vmovdqu %ymm6, 128(%rsp) vmovdqu %ymm2, 160(%rsp) vmovdqu %ymm3, 192(%rsp) movq %rsi, %rdi shrq $3, %rdi movq $0, %r8 jmp L_shake256_64$9 L_shake256_64$10: movq (%rax,%r8,8), %r9 movq (%rsp,%r9,8), %r9 movq %r9, (%rdx,%r8,8) incq %r8 L_shake256_64$9: cmpq %rdi, %r8 jb L_shake256_64$10 addq %rsi, %rdx subq %rsi, %rcx L_shake256_64$7: cmpq %rsi, %rcx jnbe L_shake256_64$8 leaq glob_data + 3328(%rip), %rsi movq $0, %rdi leaq glob_data + 3136(%rip), %r8 leaq glob_data + 2944(%rip), %r9 movq $24, %r10 L_shake256_64$6: vpshufd $78, %ymm0, %ymm8 vpxor %ymm1, %ymm2, %ymm7 vpxor %ymm3, %ymm6, %ymm9 vpxor %ymm5, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm0, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm4, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm0, %ymm0 vpxor %ymm11, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r8), %ymm0, %ymm7 vpsrlvq (%r9), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 64(%r8), %ymm1, %ymm7 vpsrlvq 64(%r9), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%r8), %ymm6, %ymm7 vpsrlvq 96(%r9), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 128(%r8), %ymm2, %ymm6 vpsrlvq 128(%r9), %ymm2, %ymm2 vpor %ymm6, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpermq $-115, %ymm0, %ymm6 vpermq $-115, %ymm1, %ymm7 vpsllvq 160(%r8), %ymm3, %ymm0 vpsrlvq 160(%r9), %ymm3, %ymm1 vpor %ymm0, %ymm1, %ymm8 vpxor %ymm9, %ymm5, %ymm0 vpermq $27, %ymm10, %ymm5 vpermq $114, %ymm2, %ymm9 vpsllvq 32(%r8), %ymm0, %ymm1 vpsrlvq 32(%r9), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm1 vpblendd $12, %ymm9, %ymm10, %ymm0 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm6, %ymm3 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm0, %ymm0 vpblendd $48, %ymm5, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm3, %ymm3 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm5, %ymm0, %ymm0 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm0, %ymm0 vpandn %ymm11, %ymm3, %ymm3 vpblendd $12, %ymm10, %ymm5, %ymm11 vpblendd $12, %ymm5, %ymm6, %ymm12 vpxor %ymm6, %ymm0, %ymm2 vpblendd $48, %ymm6, %ymm11, %ymm0 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm5, %ymm3, %ymm3 vpblendd $-64, %ymm7, %ymm0, %ymm0 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm0, %ymm0 vpxor %ymm9, %ymm0, %ymm12 vpermq $30, %ymm8, %ymm0 vpblendd $48, %ymm4, %ymm0, %ymm0 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm4, %ymm11, %ymm11 vpandn %ymm0, %ymm11, %ymm11 vpblendd $12, %ymm5, %ymm7, %ymm0 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm0, %ymm0 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm0, %ymm0 vpblendd $-64, %ymm5, %ymm13, %ymm13 vpandn %ymm13, %ymm0, %ymm0 vpxor %ymm10, %ymm0, %ymm0 vpermq $0, %ymm1, %ymm13 vpermq $27, %ymm2, %ymm1 vpermq $-115, %ymm3, %ymm2 vpermq $114, %ymm12, %ymm3 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm5, %ymm9 vpblendd $48, %ymm5, %ymm12, %ymm5 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm5, %ymm5 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm5, %ymm6 vpxor %ymm13, %ymm4, %ymm4 vpxor %ymm8, %ymm11, %ymm5 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rsi,%rdi), %ymm4, %ymm4 addq $32, %rdi decq %r10 jne L_shake256_64$6 vmovdqu %ymm4, (%rsp) vmovdqu %ymm5, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm1, 96(%rsp) vmovdqu %ymm6, 128(%rsp) vmovdqu %ymm2, 160(%rsp) vmovdqu %ymm3, 192(%rsp) movq %rcx, %rsi shrq $3, %rsi movq $0, %rdi jmp L_shake256_64$4 L_shake256_64$5: movq (%rax,%rdi,8), %r8 movq (%rsp,%r8,8), %r8 movq %r8, (%rdx,%rdi,8) incq %rdi L_shake256_64$4: cmpq %rsi, %rdi jb L_shake256_64$5 movq (%rax,%rdi,8), %rax shlq $3, %rdi shlq $3, %rax jmp L_shake256_64$2 L_shake256_64$3: movb (%rsp,%rax), %sil movb %sil, (%rdx,%rdi) incq %rdi incq %rax L_shake256_64$2: cmpq %rcx, %rdi jb L_shake256_64$3 jmp *224(%rsp) L_sha3_256_32$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vpbroadcastq (%rcx), %ymm6 movq 8(%rcx), %rdx movq glob_data + 6208(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 16(%rcx), %rdx movq glob_data + 6216(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 24(%rcx), %rcx movq glob_data + 6224(%rip), %rdx movq %rcx, (%rsp,%rdx,8) movq glob_data + 6232(%rip), %rcx shlq $3, %rcx movb $6, (%rsp,%rcx) movq glob_data + 6328(%rip), %rcx shlq $3, %rcx movq $135, %rdx andq $7, %rdx addq %rdx, %rcx xorb $-128, (%rsp,%rcx) vmovdqu 32(%rsp), %ymm0 vmovdqu 64(%rsp), %ymm1 vmovdqu 96(%rsp), %ymm2 vmovdqu 128(%rsp), %ymm3 vmovdqu 160(%rsp), %ymm4 vmovdqu 192(%rsp), %ymm5 leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L_sha3_256_32$2: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne L_sha3_256_32$2 vmovdqu %ymm6, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm1, 64(%rsp) vmovdqu %ymm2, 96(%rsp) vmovdqu %ymm3, 128(%rsp) vmovdqu %ymm4, 160(%rsp) vmovdqu %ymm5, 192(%rsp) movq glob_data + 6200(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) jmp *224(%rsp) L_sha3_256$1: vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm5, %ymm5, %ymm5 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm2, %ymm2, %ymm2 movb $6, %cl movq $136, %rdx leaq glob_data + 6200(%rip), %rsi vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) jmp L_sha3_256$7 L_sha3_256$8: movq %rdx, %r9 shrq $3, %r9 movq $0, %r10 jmp L_sha3_256$10 L_sha3_256$11: movq (%r8,%r10,8), %r11 movq (%rsi,%r10,8), %rbx movq %r11, (%rsp,%rbx,8) incq %r10 L_sha3_256$10: cmpq %r9, %r10 jb L_sha3_256$11 movq (%rsp), %r9 movq %r9, 8(%rsp) movq %r9, 16(%rsp) movq %r9, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 addq %rdx, %r8 subq %rdx, %rdi leaq glob_data + 3328(%rip), %r9 movq $0, %r10 leaq glob_data + 3136(%rip), %r11 leaq glob_data + 2944(%rip), %rbx movq $24, %rbp L_sha3_256$9: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r11), %ymm4, %ymm7 vpsrlvq (%rbx), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%r11), %ymm0, %ymm7 vpsrlvq 64(%rbx), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%r11), %ymm5, %ymm7 vpsrlvq 96(%rbx), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%r11), %ymm1, %ymm5 vpsrlvq 128(%rbx), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%r11), %ymm2, %ymm0 vpsrlvq 160(%rbx), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%r11), %ymm0, %ymm1 vpsrlvq 32(%rbx), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%r9,%r10), %ymm6, %ymm6 addq $32, %r10 decq %rbp jne L_sha3_256$9 L_sha3_256$7: cmpq %rdx, %rdi jnb L_sha3_256$8 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) movq %rdi, %r9 shrq $3, %r9 movq $0, %r10 jmp L_sha3_256$5 L_sha3_256$6: movq (%r8,%r10,8), %r11 movq (%rsi,%r10,8), %rbx movq %r11, (%rsp,%rbx,8) incq %r10 L_sha3_256$5: cmpq %r9, %r10 jb L_sha3_256$6 movq (%rsi,%r10,8), %r9 shlq $3, %r9 shlq $3, %r10 jmp L_sha3_256$3 L_sha3_256$4: movb (%r8,%r10), %r11b movb %r11b, (%rsp,%r9) incq %r10 incq %r9 L_sha3_256$3: cmpq %rdi, %r10 jb L_sha3_256$4 movb %cl, (%rsp,%r9) movq %rdx, %rcx addq $-1, %rcx shrq $3, %rcx movq (%rsi,%rcx,8), %rcx shlq $3, %rcx addq $-1, %rdx andq $7, %rdx addq %rdx, %rcx xorb $-128, (%rsp,%rcx) movq (%rsp), %rcx movq %rcx, 8(%rsp) movq %rcx, 16(%rsp) movq %rcx, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm7 vpxor 64(%rsp), %ymm4, %ymm3 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm4 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L_sha3_256$2: vpshufd $78, %ymm3, %ymm5 vpxor %ymm0, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm9 vpxor %ymm7, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm10 vpermq $-109, %ymm10, %ymm8 vpxor %ymm3, %ymm5, %ymm5 vpermq $78, %ymm5, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm8, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm5, %ymm5 vpxor %ymm9, %ymm5, %ymm9 vpsrlq $63, %ymm9, %ymm5 vpaddq %ymm9, %ymm9, %ymm12 vpor %ymm5, %ymm12, %ymm12 vpxor %ymm11, %ymm3, %ymm3 vpxor %ymm11, %ymm6, %ymm5 vpblendd $-64, %ymm12, %ymm10, %ymm6 vpblendd $3, %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm6, %ymm9 vpsllvq (%rsi), %ymm3, %ymm6 vpsrlvq (%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rsi), %ymm0, %ymm6 vpsrlvq 64(%rdi), %ymm0, %ymm0 vpor %ymm6, %ymm0, %ymm0 vpxor %ymm9, %ymm4, %ymm4 vpsllvq 96(%rsi), %ymm4, %ymm6 vpsrlvq 96(%rdi), %ymm4, %ymm4 vpor %ymm6, %ymm4, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rsi), %ymm1, %ymm4 vpsrlvq 128(%rdi), %ymm1, %ymm1 vpor %ymm4, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm3, %ymm4 vpermq $-115, %ymm0, %ymm6 vpsllvq 160(%rsi), %ymm2, %ymm0 vpsrlvq 160(%rdi), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm7, %ymm0 vpermq $27, %ymm10, %ymm7 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rsi), %ymm0, %ymm1 vpsrlvq 32(%rdi), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm6, %ymm2 vpblendd $12, %ymm6, %ymm4, %ymm3 vpblendd $12, %ymm4, %ymm10, %ymm11 vpblendd $48, %ymm6, %ymm1, %ymm1 vpblendd $48, %ymm7, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm3, %ymm3 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm3, %ymm2 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm4, %ymm11 vpxor %ymm4, %ymm1, %ymm1 vpblendd $48, %ymm4, %ymm3, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm11 vpxor %ymm7, %ymm2, %ymm2 vpblendd $-64, %ymm6, %ymm3, %ymm3 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm3, %ymm3 vpxor %ymm9, %ymm3, %ymm12 vpermq $30, %ymm8, %ymm3 vpblendd $48, %ymm5, %ymm3, %ymm3 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm3, %ymm11, %ymm11 vpblendd $12, %ymm7, %ymm6, %ymm3 vpblendd $12, %ymm6, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm3, %ymm3 vpblendd $48, %ymm4, %ymm13, %ymm13 vpblendd $-64, %ymm4, %ymm3, %ymm3 vpblendd $-64, %ymm7, %ymm13, %ymm13 vpandn %ymm13, %ymm3, %ymm3 vpxor %ymm10, %ymm3, %ymm3 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm4, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm7, %ymm9 vpblendd $48, %ymm7, %ymm12, %ymm7 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm7, %ymm7 vpblendd $-64, %ymm4, %ymm9, %ymm4 vpandn %ymm4, %ymm7, %ymm4 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm7 vpxor %ymm6, %ymm4, %ymm4 vpxor (%rcx,%rdx), %ymm5, %ymm6 addq $32, %rdx decq %r8 jne L_sha3_256$2 vmovdqu %ymm6, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm3, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm4, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) leaq glob_data + 6200(%rip), %rcx movq (%rcx), %rdx movq (%rsp,%rdx,8), %rdx movq %rdx, (%rax) movq 8(%rcx), %rdx movq (%rsp,%rdx,8), %rdx movq %rdx, 8(%rax) movq 16(%rcx), %rdx movq (%rsp,%rdx,8), %rdx movq %rdx, 16(%rax) movq 24(%rcx), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) jmp *224(%rsp) L_keccak1600_avx2$1: vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm5, %ymm5, %ymm5 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm2, %ymm2, %ymm2 leaq glob_data + 6200(%rip), %rax vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) jmp L_keccak1600_avx2$16 L_keccak1600_avx2$17: movq %rcx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$19 L_keccak1600_avx2$20: movq (%rsi,%rbx,8), %rbp movq (%rax,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$19: cmpq %r11, %rbx jb L_keccak1600_avx2$20 movq (%rsp), %r11 movq %r11, 8(%rsp) movq %r11, 16(%rsp) movq %r11, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 addq %rcx, %rsi subq %rcx, %rdx leaq glob_data + 3328(%rip), %r11 movq $0, %rbx leaq glob_data + 3136(%rip), %rbp leaq glob_data + 2944(%rip), %r12 movq $24, %r13 L_keccak1600_avx2$18: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rbp), %ymm4, %ymm7 vpsrlvq (%r12), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rbp), %ymm0, %ymm7 vpsrlvq 64(%r12), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rbp), %ymm5, %ymm7 vpsrlvq 96(%r12), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rbp), %ymm1, %ymm5 vpsrlvq 128(%r12), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rbp), %ymm2, %ymm0 vpsrlvq 160(%r12), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rbp), %ymm0, %ymm1 vpsrlvq 32(%r12), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%r11,%rbx), %ymm6, %ymm6 addq $32, %rbx decq %r13 jne L_keccak1600_avx2$18 L_keccak1600_avx2$16: cmpq %rcx, %rdx jnb L_keccak1600_avx2$17 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) movq %rdx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$14 L_keccak1600_avx2$15: movq (%rsi,%rbx,8), %rbp movq (%rax,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$14: cmpq %r11, %rbx jb L_keccak1600_avx2$15 movq (%rax,%rbx,8), %r11 shlq $3, %r11 shlq $3, %rbx jmp L_keccak1600_avx2$12 L_keccak1600_avx2$13: movb (%rsi,%rbx), %bpl movb %bpl, (%rsp,%r11) incq %rbx incq %r11 L_keccak1600_avx2$12: cmpq %rdx, %rbx jb L_keccak1600_avx2$13 movb %dil, (%rsp,%r11) movq %rcx, %rdx addq $-1, %rdx shrq $3, %rdx movq (%rax,%rdx,8), %rax shlq $3, %rax movq %rcx, %rdx addq $-1, %rdx andq $7, %rdx addq %rdx, %rax xorb $-128, (%rsp,%rax) movq (%rsp), %rax movq %rax, 8(%rsp) movq %rax, 16(%rsp) movq %rax, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 leaq glob_data + 6200(%rip), %rax jmp L_keccak1600_avx2$7 L_keccak1600_avx2$8: leaq glob_data + 3328(%rip), %rdx movq $0, %rsi leaq glob_data + 3136(%rip), %rdi leaq glob_data + 2944(%rip), %r11 movq $24, %rbx L_keccak1600_avx2$11: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rdi), %ymm4, %ymm7 vpsrlvq (%r11), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rdi), %ymm0, %ymm7 vpsrlvq 64(%r11), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rdi), %ymm5, %ymm7 vpsrlvq 96(%r11), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rdi), %ymm1, %ymm5 vpsrlvq 128(%r11), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rdi), %ymm2, %ymm0 vpsrlvq 160(%r11), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rdi), %ymm0, %ymm1 vpsrlvq 32(%r11), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rdx,%rsi), %ymm6, %ymm6 addq $32, %rsi decq %rbx jne L_keccak1600_avx2$11 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_avx2$9 L_keccak1600_avx2$10: movq (%rax,%rsi,8), %rdi movq (%rsp,%rdi,8), %rdi movq %rdi, (%r9,%rsi,8) incq %rsi L_keccak1600_avx2$9: cmpq %rdx, %rsi jb L_keccak1600_avx2$10 addq %rcx, %r9 subq %rcx, %r8 L_keccak1600_avx2$7: cmpq %rcx, %r8 jnbe L_keccak1600_avx2$8 leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r11 L_keccak1600_avx2$6: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm4, %ymm7 vpsrlvq (%rdi), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rsi), %ymm0, %ymm7 vpsrlvq 64(%rdi), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rsi), %ymm5, %ymm7 vpsrlvq 96(%rdi), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rsi), %ymm1, %ymm5 vpsrlvq 128(%rdi), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rsi), %ymm2, %ymm0 vpsrlvq 160(%rdi), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rsi), %ymm0, %ymm1 vpsrlvq 32(%rdi), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r11 jne L_keccak1600_avx2$6 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %r8, %rcx shrq $3, %rcx movq $0, %rdx jmp L_keccak1600_avx2$4 L_keccak1600_avx2$5: movq (%rax,%rdx,8), %rsi movq (%rsp,%rsi,8), %rsi movq %rsi, (%r9,%rdx,8) incq %rdx L_keccak1600_avx2$4: cmpq %rcx, %rdx jb L_keccak1600_avx2$5 movq (%rax,%rdx,8), %rax shlq $3, %rdx shlq $3, %rax jmp L_keccak1600_avx2$2 L_keccak1600_avx2$3: movb (%rsp,%rax), %cl movb %cl, (%r9,%rdx) incq %rdx incq %rax L_keccak1600_avx2$2: cmpq %r8, %rdx jb L_keccak1600_avx2$3 jmp *%r10 .data .p2align 5 _glob_data: glob_data: .byte 0 .byte 1 .byte 1 .byte 2 .byte 3 .byte 4 .byte 4 .byte 5 .byte 6 .byte 7 .byte 7 .byte 8 .byte 9 .byte 10 .byte 10 .byte 11 .byte 4 .byte 5 .byte 5 .byte 6 .byte 7 .byte 8 .byte 8 .byte 9 .byte 10 .byte 11 .byte 11 .byte 12 .byte 13 .byte 14 .byte 14 .byte 15 .byte 0 .byte 1 .byte 2 .byte 3 .byte 4 .byte 8 .byte 9 .byte 10 .byte 11 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 9 .byte 10 .byte 11 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 1 .byte 2 .byte 3 .byte 4 .byte 8 .byte 0 .byte 1 .byte 1 .byte 2 .byte 2 .byte 3 .byte 3 .byte 4 .byte 5 .byte 6 .byte 6 .byte 7 .byte 7 .byte 8 .byte 8 .byte 9 .byte 2 .byte 3 .byte 3 .byte 4 .byte 4 .byte 5 .byte 5 .byte 6 .byte 7 .byte 8 .byte 8 .byte 9 .byte 9 .byte 10 .byte 10 .byte 11 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 1 .byte 1 .byte 1 .byte 2 .byte 2 .byte 2 .byte 2 .byte 3 .byte 3 .byte 3 .byte 3 .byte 4 .byte 4 .byte 4 .byte 4 .byte 5 .byte 5 .byte 5 .byte 5 .byte 6 .byte 6 .byte 6 .byte 6 .byte 7 .byte 7 .byte 7 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte -91 .byte -91 .byte -76 .byte -31 .byte 34 .byte 79 .byte 52 .byte 93 .byte 35 .byte 68 .byte 86 .byte -91 .byte -25 .byte 78 .byte -6 .byte 83 .byte 123 .byte -57 .byte 37 .byte 43 .byte 55 .byte 58 .byte -120 .byte 24 .byte -127 .byte 126 .byte 5 .byte -60 .byte -97 .byte -9 .byte -72 .byte -80 .byte -91 .byte 6 .byte -76 .byte 5 .byte 34 .byte 9 .byte 52 .byte 1 .byte 35 .byte 11 .byte 86 .byte 3 .byte -25 .byte 9 .byte -6 .byte 5 .byte 123 .byte 6 .byte 37 .byte 12 .byte 55 .byte 5 .byte -120 .byte 0 .byte -127 .byte 11 .byte 5 .byte 5 .byte -97 .byte 10 .byte -72 .byte 8 .byte 15 .byte 68 .byte 67 .byte -94 .byte 29 .byte -112 .byte 108 .byte -124 .byte 102 .byte -43 .byte -26 .byte 87 .byte -2 .byte 30 .byte -95 .byte -41 .byte -93 .byte -67 .byte 106 .byte -95 .byte 63 .byte -43 .byte -65 .byte 81 .byte -71 .byte -96 .byte -41 .byte 28 .byte -90 .byte -100 .byte -48 .byte 121 .byte 15 .byte 7 .byte 67 .byte 9 .byte 29 .byte 9 .byte 108 .byte 0 .byte 102 .byte 3 .byte -26 .byte 5 .byte -2 .byte 4 .byte -95 .byte 4 .byte -93 .byte 4 .byte 106 .byte 3 .byte 63 .byte 8 .byte -65 .byte 4 .byte -71 .byte 5 .byte -41 .byte 7 .byte -90 .byte 10 .byte -48 .byte 9 .byte -5 .byte 69 .byte 92 .byte 94 .byte 41 .byte -17 .byte 65 .byte -66 .byte -43 .byte 49 .byte -28 .byte 113 .byte 64 .byte -55 .byte -114 .byte -53 .byte -73 .byte -72 .byte -9 .byte 117 .byte -115 .byte -36 .byte -106 .byte 110 .byte -61 .byte 34 .byte 15 .byte 62 .byte 90 .byte 110 .byte 85 .byte -78 .byte -5 .byte 4 .byte 92 .byte 10 .byte 41 .byte 4 .byte 65 .byte 11 .byte -43 .byte 2 .byte -28 .byte 5 .byte 64 .byte 9 .byte -114 .byte 1 .byte -73 .byte 3 .byte -9 .byte 0 .byte -115 .byte 5 .byte -106 .byte 12 .byte -61 .byte 9 .byte 15 .byte 1 .byte 90 .byte 0 .byte 85 .byte 3 .byte 35 .byte 63 .byte 35 .byte 63 .byte -51 .byte -105 .byte -51 .byte -105 .byte 102 .byte -35 .byte 102 .byte -35 .byte 6 .byte -72 .byte 6 .byte -72 .byte -95 .byte -35 .byte -95 .byte -35 .byte 37 .byte 41 .byte 37 .byte 41 .byte 8 .byte -95 .byte 8 .byte -95 .byte -87 .byte 109 .byte -87 .byte 109 .byte 35 .byte 6 .byte 35 .byte 6 .byte -51 .byte 0 .byte -51 .byte 0 .byte 102 .byte 11 .byte 102 .byte 11 .byte 6 .byte 6 .byte 6 .byte 6 .byte -95 .byte 10 .byte -95 .byte 10 .byte 37 .byte 10 .byte 37 .byte 10 .byte 8 .byte 9 .byte 8 .byte 9 .byte -87 .byte 2 .byte -87 .byte 2 .byte 69 .byte -122 .byte 69 .byte -122 .byte 69 .byte -122 .byte 69 .byte -122 .byte -62 .byte 43 .byte -62 .byte 43 .byte -62 .byte 43 .byte -62 .byte 43 .byte -78 .byte -6 .byte -78 .byte -6 .byte -78 .byte -6 .byte -78 .byte -6 .byte 63 .byte -42 .byte 63 .byte -42 .byte 63 .byte -42 .byte 63 .byte -42 .byte 69 .byte 7 .byte 69 .byte 7 .byte 69 .byte 7 .byte 69 .byte 7 .byte -62 .byte 5 .byte -62 .byte 5 .byte -62 .byte 5 .byte -62 .byte 5 .byte -78 .byte 4 .byte -78 .byte 4 .byte -78 .byte 4 .byte -78 .byte 4 .byte 63 .byte 9 .byte 63 .byte 9 .byte 63 .byte 9 .byte 63 .byte 9 .byte 55 .byte 65 .byte 55 .byte 65 .byte 55 .byte 65 .byte 55 .byte 65 .byte 55 .byte 65 .byte 55 .byte 65 .byte 55 .byte 65 .byte 55 .byte 65 .byte -30 .byte -111 .byte -30 .byte -111 .byte -30 .byte -111 .byte -30 .byte -111 .byte -30 .byte -111 .byte -30 .byte -111 .byte -30 .byte -111 .byte -30 .byte -111 .byte 55 .byte 12 .byte 55 .byte 12 .byte 55 .byte 12 .byte 55 .byte 12 .byte 55 .byte 12 .byte 55 .byte 12 .byte 55 .byte 12 .byte 55 .byte 12 .byte -30 .byte 11 .byte -30 .byte 11 .byte -30 .byte 11 .byte -30 .byte 11 .byte -30 .byte 11 .byte -30 .byte 11 .byte -30 .byte 11 .byte -30 .byte 11 .byte -19 .byte -4 .byte -19 .byte -4 .byte -19 .byte 5 .byte -19 .byte 5 .byte 75 .byte 49 .byte -72 .byte -77 .byte -92 .byte -73 .byte 125 .byte -79 .byte -94 .byte -50 .byte 54 .byte 73 .byte -109 .byte -119 .byte -9 .byte 126 .byte -116 .byte -22 .byte -52 .byte -91 .byte -21 .byte 17 .byte -74 .byte -52 .byte -104 .byte 84 .byte -102 .byte 55 .byte -74 .byte -53 .byte 83 .byte -44 .byte 75 .byte 0 .byte -72 .byte 11 .byte -92 .byte 11 .byte 125 .byte 10 .byte -94 .byte 8 .byte 54 .byte 7 .byte -109 .byte 0 .byte -9 .byte 9 .byte -116 .byte 6 .byte -52 .byte 1 .byte -21 .byte 0 .byte -74 .byte 10 .byte -104 .byte 12 .byte -102 .byte 9 .byte -74 .byte 9 .byte 83 .byte 11 .byte -100 .byte 20 .byte 95 .byte 56 .byte 104 .byte -69 .byte 54 .byte 72 .byte 90 .byte 112 .byte 9 .byte -114 .byte 122 .byte -42 .byte -10 .byte -126 .byte -37 .byte -25 .byte 35 .byte 58 .byte 80 .byte -4 .byte 91 .byte 108 .byte -13 .byte -81 .byte -29 .byte 125 .byte -42 .byte 44 .byte 79 .byte 1 .byte -100 .byte 0 .byte 95 .byte 11 .byte 104 .byte 3 .byte 54 .byte 6 .byte 90 .byte 2 .byte 9 .byte 3 .byte 122 .byte 8 .byte -10 .byte 0 .byte -37 .byte 6 .byte 35 .byte 1 .byte 80 .byte 12 .byte 91 .byte 11 .byte -13 .byte 6 .byte -29 .byte 4 .byte -42 .byte 10 .byte 79 .byte 4 .byte 68 .byte -109 .byte -125 .byte 101 .byte -118 .byte 2 .byte 82 .byte -36 .byte -102 .byte 48 .byte 64 .byte -63 .byte 8 .byte -104 .byte -3 .byte 49 .byte 8 .byte -98 .byte 26 .byte -81 .byte 46 .byte -79 .byte 13 .byte 92 .byte 10 .byte -121 .byte 40 .byte -6 .byte 117 .byte 25 .byte 58 .byte 22 .byte 68 .byte 7 .byte -125 .byte 12 .byte -118 .byte 4 .byte 82 .byte 6 .byte -102 .byte 2 .byte 64 .byte 1 .byte 8 .byte 0 .byte -3 .byte 10 .byte 8 .byte 6 .byte 26 .byte 1 .byte 46 .byte 7 .byte 13 .byte 5 .byte 10 .byte 9 .byte 40 .byte 2 .byte 117 .byte 10 .byte 58 .byte 8 .byte -126 .byte 102 .byte -126 .byte 102 .byte 66 .byte -84 .byte 66 .byte -84 .byte 79 .byte 4 .byte 79 .byte 4 .byte 61 .byte -22 .byte 61 .byte -22 .byte -126 .byte 113 .byte -126 .byte 113 .byte -7 .byte 102 .byte -7 .byte 102 .byte 45 .byte -68 .byte 45 .byte -68 .byte -60 .byte 22 .byte -60 .byte 22 .byte -126 .byte 0 .byte -126 .byte 0 .byte 66 .byte 6 .byte 66 .byte 6 .byte 79 .byte 7 .byte 79 .byte 7 .byte 61 .byte 3 .byte 61 .byte 3 .byte -126 .byte 11 .byte -126 .byte 11 .byte -7 .byte 11 .byte -7 .byte 11 .byte 45 .byte 5 .byte 45 .byte 5 .byte -60 .byte 10 .byte -60 .byte 10 .byte 75 .byte 61 .byte 75 .byte 61 .byte 75 .byte 61 .byte 75 .byte 61 .byte -40 .byte 14 .byte -40 .byte 14 .byte -40 .byte 14 .byte -40 .byte 14 .byte -109 .byte -109 .byte -109 .byte -109 .byte -109 .byte -109 .byte -109 .byte -109 .byte -85 .byte 81 .byte -85 .byte 81 .byte -85 .byte 81 .byte -85 .byte 81 .byte 75 .byte 12 .byte 75 .byte 12 .byte 75 .byte 12 .byte 75 .byte 12 .byte -40 .byte 6 .byte -40 .byte 6 .byte -40 .byte 6 .byte -40 .byte 6 .byte -109 .byte 10 .byte -109 .byte 10 .byte -109 .byte 10 .byte -109 .byte 10 .byte -85 .byte 0 .byte -85 .byte 0 .byte -85 .byte 0 .byte -85 .byte 0 .byte 115 .byte 48 .byte 115 .byte 48 .byte 115 .byte 48 .byte 115 .byte 48 .byte 115 .byte 48 .byte 115 .byte 48 .byte 115 .byte 48 .byte 115 .byte 48 .byte 44 .byte -53 .byte 44 .byte -53 .byte 44 .byte -53 .byte 44 .byte -53 .byte 44 .byte -53 .byte 44 .byte -53 .byte 44 .byte -53 .byte 44 .byte -53 .byte 115 .byte 7 .byte 115 .byte 7 .byte 115 .byte 7 .byte 115 .byte 7 .byte 115 .byte 7 .byte 115 .byte 7 .byte 115 .byte 7 .byte 115 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 103 .byte -58 .byte 103 .byte -58 .byte 103 .byte 1 .byte 103 .byte 1 .byte -116 .byte -21 .byte -116 .byte -21 .byte -116 .byte 7 .byte -116 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 11 .byte 123 .byte 11 .byte 123 .byte 11 .byte 10 .byte 11 .byte 10 .byte -102 .byte 57 .byte -102 .byte 57 .byte -102 .byte 11 .byte -102 .byte 11 .byte -43 .byte 52 .byte -43 .byte 52 .byte -43 .byte 52 .byte -43 .byte 52 .byte -43 .byte 52 .byte -43 .byte 52 .byte -43 .byte 52 .byte -43 .byte 52 .byte -114 .byte -49 .byte -114 .byte -49 .byte -114 .byte -49 .byte -114 .byte -49 .byte -114 .byte -49 .byte -114 .byte -49 .byte -114 .byte -49 .byte -114 .byte -49 .byte -43 .byte 5 .byte -43 .byte 5 .byte -43 .byte 5 .byte -43 .byte 5 .byte -43 .byte 5 .byte -43 .byte 5 .byte -43 .byte 5 .byte -43 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte 86 .byte -82 .byte 86 .byte -82 .byte 86 .byte -82 .byte 86 .byte -82 .byte 110 .byte 108 .byte 110 .byte 108 .byte 110 .byte 108 .byte 110 .byte 108 .byte 41 .byte -15 .byte 41 .byte -15 .byte 41 .byte -15 .byte 41 .byte -15 .byte -74 .byte -62 .byte -74 .byte -62 .byte -74 .byte -62 .byte -74 .byte -62 .byte 86 .byte 12 .byte 86 .byte 12 .byte 86 .byte 12 .byte 86 .byte 12 .byte 110 .byte 2 .byte 110 .byte 2 .byte 110 .byte 2 .byte 110 .byte 2 .byte 41 .byte 6 .byte 41 .byte 6 .byte 41 .byte 6 .byte 41 .byte 6 .byte -74 .byte 0 .byte -74 .byte 0 .byte -74 .byte 0 .byte -74 .byte 0 .byte 61 .byte -23 .byte 61 .byte -23 .byte -44 .byte 67 .byte -44 .byte 67 .byte 8 .byte -103 .byte 8 .byte -103 .byte 127 .byte -114 .byte 127 .byte -114 .byte -60 .byte 21 .byte -60 .byte 21 .byte -78 .byte -5 .byte -78 .byte -5 .byte -65 .byte 83 .byte -65 .byte 83 .byte 127 .byte -103 .byte 127 .byte -103 .byte 61 .byte 2 .byte 61 .byte 2 .byte -44 .byte 7 .byte -44 .byte 7 .byte 8 .byte 1 .byte 8 .byte 1 .byte 127 .byte 1 .byte 127 .byte 1 .byte -60 .byte 9 .byte -60 .byte 9 .byte -78 .byte 5 .byte -78 .byte 5 .byte -65 .byte 6 .byte -65 .byte 6 .byte 127 .byte 12 .byte 127 .byte 12 .byte -57 .byte -23 .byte -116 .byte -26 .byte -39 .byte 5 .byte -9 .byte 120 .byte -12 .byte -93 .byte -45 .byte 78 .byte -25 .byte 80 .byte -7 .byte 97 .byte 4 .byte -50 .byte -7 .byte 103 .byte -63 .byte 62 .byte 103 .byte -49 .byte -81 .byte 35 .byte 119 .byte -3 .byte 126 .byte -102 .byte -67 .byte 108 .byte -57 .byte 4 .byte -116 .byte 2 .byte -39 .byte 10 .byte -9 .byte 3 .byte -12 .byte 7 .byte -45 .byte 5 .byte -25 .byte 11 .byte -7 .byte 6 .byte 4 .byte 2 .byte -7 .byte 12 .byte -63 .byte 11 .byte 103 .byte 10 .byte -81 .byte 6 .byte 119 .byte 8 .byte 126 .byte 0 .byte -67 .byte 5 .byte -78 .byte -2 .byte 43 .byte -45 .byte 30 .byte -126 .byte 14 .byte 80 .byte -90 .byte -109 .byte -79 .byte 3 .byte -34 .byte -59 .byte 38 .byte 24 .byte 11 .byte 125 .byte -121 .byte 41 .byte -8 .byte 113 .byte -89 .byte -113 .byte -53 .byte -73 .byte -103 .byte 68 .byte -94 .byte -57 .byte 101 .byte -21 .byte -78 .byte 8 .byte 43 .byte 2 .byte 30 .byte 8 .byte 14 .byte 6 .byte -90 .byte 1 .byte -79 .byte 0 .byte -34 .byte 11 .byte 38 .byte 6 .byte 11 .byte 12 .byte -121 .byte 4 .byte -8 .byte 9 .byte -89 .byte 10 .byte -53 .byte 6 .byte -103 .byte 9 .byte -94 .byte 1 .byte 101 .byte 12 .byte -82 .byte 43 .byte 75 .byte 52 .byte 103 .byte -56 .byte 105 .byte -85 .byte 75 .byte 51 .byte 22 .byte -18 .byte 53 .byte 90 .byte 117 .byte 21 .byte 10 .byte -127 .byte 110 .byte 118 .byte -53 .byte -74 .byte 95 .byte 49 .byte -124 .byte 78 .byte 93 .byte 72 .byte 73 .byte 76 .byte -74 .byte -50 .byte -82 .byte 1 .byte 75 .byte 3 .byte 103 .byte 3 .byte 105 .byte 0 .byte 75 .byte 2 .byte 22 .byte 12 .byte 53 .byte 11 .byte 117 .byte 6 .byte 10 .byte 3 .byte 110 .byte 12 .byte -53 .byte 5 .byte 95 .byte 4 .byte -124 .byte 2 .byte 93 .byte 1 .byte 73 .byte 1 .byte -74 .byte 12 .byte 20 .byte 3 .byte 20 .byte 3 .byte 20 .byte 7 .byte 20 .byte 7 .byte 31 .byte 110 .byte 31 .byte 110 .byte 31 .byte 110 .byte 31 .byte 110 .byte 31 .byte 110 .byte 31 .byte 110 .byte 31 .byte 110 .byte 31 .byte 110 .byte -54 .byte -66 .byte -54 .byte -66 .byte -54 .byte -66 .byte -54 .byte -66 .byte -54 .byte -66 .byte -54 .byte -66 .byte -54 .byte -66 .byte -54 .byte -66 .byte 31 .byte 1 .byte 31 .byte 1 .byte 31 .byte 1 .byte 31 .byte 1 .byte 31 .byte 1 .byte 31 .byte 1 .byte 31 .byte 1 .byte 31 .byte 1 .byte -54 .byte 0 .byte -54 .byte 0 .byte -54 .byte 0 .byte -54 .byte 0 .byte -54 .byte 0 .byte -54 .byte 0 .byte -54 .byte 0 .byte -54 .byte 0 .byte -62 .byte 41 .byte -62 .byte 41 .byte -62 .byte 41 .byte -62 .byte 41 .byte 79 .byte 5 .byte 79 .byte 5 .byte 79 .byte 5 .byte 79 .byte 5 .byte 63 .byte -44 .byte 63 .byte -44 .byte 63 .byte -44 .byte 63 .byte -44 .byte -68 .byte 121 .byte -68 .byte 121 .byte -68 .byte 121 .byte -68 .byte 121 .byte -62 .byte 3 .byte -62 .byte 3 .byte -62 .byte 3 .byte -62 .byte 3 .byte 79 .byte 8 .byte 79 .byte 8 .byte 79 .byte 8 .byte 79 .byte 8 .byte 63 .byte 7 .byte 63 .byte 7 .byte 63 .byte 7 .byte 63 .byte 7 .byte -68 .byte 5 .byte -68 .byte 5 .byte -68 .byte 5 .byte -68 .byte 5 .byte 88 .byte -110 .byte 88 .byte -110 .byte -7 .byte 94 .byte -7 .byte 94 .byte -36 .byte -42 .byte -36 .byte -42 .byte 96 .byte 34 .byte 96 .byte 34 .byte -5 .byte 71 .byte -5 .byte 71 .byte -101 .byte 34 .byte -101 .byte 34 .byte 52 .byte 104 .byte 52 .byte 104 .byte -34 .byte -64 .byte -34 .byte -64 .byte 88 .byte 10 .byte 88 .byte 10 .byte -7 .byte 3 .byte -7 .byte 3 .byte -36 .byte 2 .byte -36 .byte 2 .byte 96 .byte 2 .byte 96 .byte 2 .byte -5 .byte 6 .byte -5 .byte 6 .byte -101 .byte 1 .byte -101 .byte 1 .byte 52 .byte 12 .byte 52 .byte 12 .byte -34 .byte 6 .byte -34 .byte 6 .byte -84 .byte 77 .byte -89 .byte -111 .byte -14 .byte -63 .byte 62 .byte -35 .byte 107 .byte -111 .byte 116 .byte 35 .byte 10 .byte -118 .byte 74 .byte 71 .byte 115 .byte 52 .byte -63 .byte 54 .byte 29 .byte -114 .byte 44 .byte -50 .byte -64 .byte 65 .byte -40 .byte 16 .byte -91 .byte -95 .byte 6 .byte -70 .byte -84 .byte 9 .byte -89 .byte 12 .byte -14 .byte 11 .byte 62 .byte 3 .byte 107 .byte 0 .byte 116 .byte 7 .byte 10 .byte 12 .byte 74 .byte 9 .byte 115 .byte 11 .byte -63 .byte 3 .byte 29 .byte 7 .byte 44 .byte 10 .byte -64 .byte 1 .byte -40 .byte 8 .byte -91 .byte 2 .byte 6 .byte 8 .byte 49 .byte -122 .byte 91 .byte 99 .byte 42 .byte -29 .byte 72 .byte 95 .byte 66 .byte -82 .byte -62 .byte 42 .byte -105 .byte 94 .byte 94 .byte 66 .byte 96 .byte 40 .byte 3 .byte -31 .byte 27 .byte -88 .byte -101 .byte 42 .byte -107 .byte 123 .byte -28 .byte 111 .byte -66 .byte 93 .byte -14 .byte -69 .byte 49 .byte 3 .byte 91 .byte 2 .byte 42 .byte 5 .byte 72 .byte 7 .byte 66 .byte 8 .byte -62 .byte 4 .byte -105 .byte 9 .byte 94 .byte 8 .byte 96 .byte 8 .byte 3 .byte 8 .byte 27 .byte 7 .byte -101 .byte 9 .byte -107 .byte 12 .byte -28 .byte 3 .byte -66 .byte 3 .byte -14 .byte 5 .byte 73 .byte 79 .byte 98 .byte 8 .byte -4 .byte 59 .byte -128 .byte -127 .byte 121 .byte -25 .byte -54 .byte -59 .byte -36 .byte -44 .byte -122 .byte 56 .byte 7 .byte -84 .byte 26 .byte -79 .byte -85 .byte 90 .byte -34 .byte -69 .byte -51 .byte -94 .byte -33 .byte -80 .byte 77 .byte 30 .byte 92 .byte 90 .byte 73 .byte 4 .byte 98 .byte 2 .byte -4 .byte 7 .byte -128 .byte 1 .byte 121 .byte 12 .byte -54 .byte 7 .byte -36 .byte 0 .byte -122 .byte 6 .byte 7 .byte 7 .byte 26 .byte 3 .byte -85 .byte 9 .byte -34 .byte 1 .byte -51 .byte 11 .byte -33 .byte 3 .byte 77 .byte 7 .byte 92 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 7 .byte 0 .byte 1 .byte 2 .byte 3 .byte 4 .byte 5 .byte 6 .byte 15 .byte 8 .byte 9 .byte 10 .byte 11 .byte 12 .byte 13 .byte 14 .byte 23 .byte 16 .byte 17 .byte 18 .byte 19 .byte 20 .byte 21 .byte 22 .byte 31 .byte 24 .byte 25 .byte 26 .byte 27 .byte 28 .byte 29 .byte 30 .byte 1 .byte 2 .byte 3 .byte 4 .byte 5 .byte 6 .byte 7 .byte 0 .byte 9 .byte 10 .byte 11 .byte 12 .byte 13 .byte 14 .byte 15 .byte 8 .byte 17 .byte 18 .byte 19 .byte 20 .byte 21 .byte 22 .byte 23 .byte 16 .byte 25 .byte 26 .byte 27 .byte 28 .byte 29 .byte 30 .byte 31 .byte 24 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 46 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 63 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 37 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 58 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 54 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 49 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 50 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 41 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 45 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 55 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 1 .byte 4 .byte 5 .byte 8 .byte 9 .byte 12 .byte 13 .byte 2 .byte 3 .byte 6 .byte 7 .byte 10 .byte 11 .byte 14 .byte 15 .byte 3 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 4 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 4 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 4 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte 12 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 4 .byte 1 .byte 0 .byte 0 .byte 4 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 24 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 13 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 16 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 22 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 11 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 12 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 26 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 17 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -8 .byte 31 .byte -32 .byte 127 .byte 4 .byte 52 .byte 1 .byte 13 .byte 0 .byte 8 .byte -128 .byte 0 .byte 15 .byte 0 .byte -16 .byte 0 .byte -1 .byte 15 .byte -1 .byte 3 .byte 0 .byte 16 .byte 15 .byte 0 .byte 1 .byte 16 .byte 15 .byte 0 .byte 0 .byte 2 .byte 1 .byte 0 .byte 1 .byte 2 .byte -1 .byte 3 .byte 4 .byte 5 .byte -1 .byte 6 .byte 7 .byte 8 .byte -1 .byte 9 .byte 10 .byte 11 .byte -1 .byte 4 .byte 5 .byte 6 .byte -1 .byte 7 .byte 8 .byte 9 .byte -1 .byte 10 .byte 11 .byte 12 .byte -1 .byte 13 .byte 14 .byte 15 .byte -1 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -91 .byte 6 .byte 15 .byte 7 .byte -76 .byte 5 .byte 67 .byte 9 .byte 34 .byte 9 .byte 29 .byte 9 .byte 52 .byte 1 .byte 108 .byte 0 .byte 35 .byte 11 .byte 102 .byte 3 .byte 86 .byte 3 .byte -26 .byte 5 .byte -25 .byte 9 .byte -2 .byte 4 .byte -6 .byte 5 .byte -95 .byte 4 .byte 123 .byte 6 .byte -93 .byte 4 .byte 37 .byte 12 .byte 106 .byte 3 .byte 55 .byte 5 .byte 63 .byte 8 .byte -120 .byte 0 .byte -65 .byte 4 .byte -127 .byte 11 .byte -71 .byte 5 .byte 5 .byte 5 .byte -41 .byte 7 .byte -97 .byte 10 .byte -90 .byte 10 .byte -72 .byte 8 .byte -48 .byte 9 .byte 75 .byte 0 .byte -100 .byte 0 .byte -72 .byte 11 .byte 95 .byte 11 .byte -92 .byte 11 .byte 104 .byte 3 .byte 125 .byte 10 .byte 54 .byte 6 .byte -94 .byte 8 .byte 90 .byte 2 .byte 54 .byte 7 .byte 9 .byte 3 .byte -109 .byte 0 .byte 122 .byte 8 .byte -9 .byte 9 .byte -10 .byte 0 .byte -116 .byte 6 .byte -37 .byte 6 .byte -52 .byte 1 .byte 35 .byte 1 .byte -21 .byte 0 .byte 80 .byte 12 .byte -74 .byte 10 .byte 91 .byte 11 .byte -104 .byte 12 .byte -13 .byte 6 .byte -102 .byte 9 .byte -29 .byte 4 .byte -74 .byte 9 .byte -42 .byte 10 .byte 83 .byte 11 .byte 79 .byte 4 .byte -5 .byte 4 .byte 92 .byte 10 .byte 41 .byte 4 .byte 65 .byte 11 .byte -43 .byte 2 .byte -28 .byte 5 .byte 64 .byte 9 .byte -114 .byte 1 .byte -73 .byte 3 .byte -9 .byte 0 .byte -115 .byte 5 .byte -106 .byte 12 .byte -61 .byte 9 .byte 15 .byte 1 .byte 90 .byte 0 .byte 85 .byte 3 .byte 68 .byte 7 .byte -125 .byte 12 .byte -118 .byte 4 .byte 82 .byte 6 .byte -102 .byte 2 .byte 64 .byte 1 .byte 8 .byte 0 .byte -3 .byte 10 .byte 8 .byte 6 .byte 26 .byte 1 .byte 46 .byte 7 .byte 13 .byte 5 .byte 10 .byte 9 .byte 40 .byte 2 .byte 117 .byte 10 .byte 58 .byte 8 .byte 35 .byte 6 .byte -51 .byte 0 .byte 102 .byte 11 .byte 6 .byte 6 .byte -95 .byte 10 .byte 37 .byte 10 .byte 8 .byte 9 .byte -87 .byte 2 .byte -126 .byte 0 .byte 66 .byte 6 .byte 79 .byte 7 .byte 61 .byte 3 .byte -126 .byte 11 .byte -7 .byte 11 .byte 45 .byte 5 .byte -60 .byte 10 .byte 69 .byte 7 .byte -62 .byte 5 .byte -78 .byte 4 .byte 63 .byte 9 .byte 75 .byte 12 .byte -40 .byte 6 .byte -109 .byte 10 .byte -85 .byte 0 .byte 55 .byte 12 .byte -30 .byte 11 .byte 115 .byte 7 .byte 44 .byte 7 .byte -19 .byte 5 .byte 103 .byte 1 .byte -10 .byte 2 .byte -95 .byte 5 .byte -19 .byte 8 .byte 11 .byte 10 .byte -102 .byte 11 .byte 20 .byte 7 .byte -43 .byte 5 .byte -114 .byte 5 .byte 31 .byte 1 .byte -54 .byte 0 .byte 86 .byte 12 .byte 110 .byte 2 .byte 41 .byte 6 .byte -74 .byte 0 .byte -62 .byte 3 .byte 79 .byte 8 .byte 63 .byte 7 .byte -68 .byte 5 .byte 61 .byte 2 .byte -44 .byte 7 .byte 8 .byte 1 .byte 127 .byte 1 .byte -60 .byte 9 .byte -78 .byte 5 .byte -65 .byte 6 .byte 127 .byte 12 .byte 88 .byte 10 .byte -7 .byte 3 .byte -36 .byte 2 .byte 96 .byte 2 .byte -5 .byte 6 .byte -101 .byte 1 .byte 52 .byte 12 .byte -34 .byte 6 .byte -57 .byte 4 .byte -116 .byte 2 .byte -39 .byte 10 .byte -9 .byte 3 .byte -12 .byte 7 .byte -45 .byte 5 .byte -25 .byte 11 .byte -7 .byte 6 .byte 4 .byte 2 .byte -7 .byte 12 .byte -63 .byte 11 .byte 103 .byte 10 .byte -81 .byte 6 .byte 119 .byte 8 .byte 126 .byte 0 .byte -67 .byte 5 .byte -84 .byte 9 .byte -89 .byte 12 .byte -14 .byte 11 .byte 62 .byte 3 .byte 107 .byte 0 .byte 116 .byte 7 .byte 10 .byte 12 .byte 74 .byte 9 .byte 115 .byte 11 .byte -63 .byte 3 .byte 29 .byte 7 .byte 44 .byte 10 .byte -64 .byte 1 .byte -40 .byte 8 .byte -91 .byte 2 .byte 6 .byte 8 .byte -78 .byte 8 .byte -82 .byte 1 .byte 43 .byte 2 .byte 75 .byte 3 .byte 30 .byte 8 .byte 103 .byte 3 .byte 14 .byte 6 .byte 105 .byte 0 .byte -90 .byte 1 .byte 75 .byte 2 .byte -79 .byte 0 .byte 22 .byte 12 .byte -34 .byte 11 .byte 53 .byte 11 .byte 38 .byte 6 .byte 117 .byte 6 .byte 11 .byte 12 .byte 10 .byte 3 .byte -121 .byte 4 .byte 110 .byte 12 .byte -8 .byte 9 .byte -53 .byte 5 .byte -89 .byte 10 .byte 95 .byte 4 .byte -53 .byte 6 .byte -124 .byte 2 .byte -103 .byte 9 .byte 93 .byte 1 .byte -94 .byte 1 .byte 73 .byte 1 .byte 101 .byte 12 .byte -74 .byte 12 .byte 49 .byte 3 .byte 73 .byte 4 .byte 91 .byte 2 .byte 98 .byte 2 .byte 42 .byte 5 .byte -4 .byte 7 .byte 72 .byte 7 .byte -128 .byte 1 .byte 66 .byte 8 .byte 121 .byte 12 .byte -62 .byte 4 .byte -54 .byte 7 .byte -105 .byte 9 .byte -36 .byte 0 .byte 94 .byte 8 .byte -122 .byte 6 .byte 96 .byte 8 .byte 7 .byte 7 .byte 3 .byte 8 .byte 26 .byte 3 .byte 27 .byte 7 .byte -85 .byte 9 .byte -101 .byte 9 .byte -34 .byte 1 .byte -107 .byte 12 .byte -51 .byte 11 .byte -28 .byte 3 .byte -33 .byte 3 .byte -66 .byte 3 .byte 77 .byte 7 .byte -14 .byte 5 .byte 92 .byte 6 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128
usenix-security-verdict/verdict
377,805
deps/libcrux/sys/libjade/jazz/kyber_kyber768_ref.s
.att_syntax .text .p2align 5 .globl _jade_kem_kyber_kyber768_amd64_ref_dec .globl jade_kem_kyber_kyber768_amd64_ref_dec .globl _jade_kem_kyber_kyber768_amd64_ref_enc_derand .globl jade_kem_kyber_kyber768_amd64_ref_enc_derand .globl _jade_kem_kyber_kyber768_amd64_ref_keypair_derand .globl jade_kem_kyber_kyber768_amd64_ref_keypair_derand _jade_kem_kyber_kyber768_amd64_ref_dec: jade_kem_kyber_kyber768_amd64_ref_dec: movq %rsp, %rax leaq -14560(%rsp), %rsp andq $-8, %rsp movq %rax, 14552(%rsp) movq %r15, 14504(%rsp) movq %r14, 14512(%rsp) movq %r13, 14520(%rsp) movq %r12, 14528(%rsp) movq %rbp, 14536(%rsp) movq %rbx, 14544(%rsp) movq %rdi, (%rsp) movq %rsi, 8(%rsp) leaq 80(%rsp), %rax movq $0, %rcx movq $0, %rdi jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$225 Ljade_kem_kyber_kyber768_amd64_ref_dec$226: movzbl (%rsi,%rdi), %r10d incq %rdi movzbl (%rsi,%rdi), %r11d incq %rdi movzbl (%rsi,%rdi), %r8d incq %rdi movzbl (%rsi,%rdi), %r9d incq %rdi movzbl (%rsi,%rdi), %ebx incq %rdi movl %r11d, %ebp shrl $2, %r11d andl $3, %ebp shll $8, %ebp orl %ebp, %r10d movl %r8d, %ebp shrl $4, %r8d andl $15, %ebp shll $6, %ebp orl %ebp, %r11d movl %r9d, %ebp shrl $6, %r9d andl $63, %ebp shll $4, %ebp orl %ebp, %r8d shll $2, %ebx orl %ebx, %r9d imull $3329, %r10d, %r10d addl $512, %r10d shrl $10, %r10d movw %r10w, 2456(%rsp,%rcx,2) incq %rcx imull $3329, %r11d, %r10d addl $512, %r10d shrl $10, %r10d movw %r10w, 2456(%rsp,%rcx,2) incq %rcx imull $3329, %r8d, %r8d addl $512, %r8d shrl $10, %r8d movw %r8w, 2456(%rsp,%rcx,2) incq %rcx imull $3329, %r9d, %r8d addl $512, %r8d shrl $10, %r8d movw %r8w, 2456(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$225: cmpq $768, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$226 addq $960, %rsi leaq 920(%rsp), %rcx call L_poly_decompress$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$224: movq %rdx, %rsi leaq 3992(%rsp), %rdi call L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$223: addq $384, %rsi leaq 4504(%rsp), %rdi call L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$222: addq $384, %rsi leaq 5016(%rsp), %rdi call L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$221: leaq 2456(%rsp), %rcx call L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$220: leaq 2968(%rsp), %rcx call L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$219: leaq 3480(%rsp), %rcx call L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$218: leaq 408(%rsp), %rdi leaq 3992(%rsp), %rcx leaq 2456(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$217: leaq 16(%rsp), %rsp leaq 1432(%rsp), %rdi leaq 4504(%rsp), %rcx leaq 2968(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$216: leaq 16(%rsp), %rsp leaq 408(%rsp), %rcx leaq 1432(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$215: leaq 1432(%rsp), %rdi leaq 5016(%rsp), %rcx leaq 3480(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$214: leaq 16(%rsp), %rsp leaq 408(%rsp), %rcx leaq 1432(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$213: leaq 408(%rsp), %rcx movq $0, %rsi jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$211 Ljade_kem_kyber_kyber768_amd64_ref_dec$212: movw (%rcx,%rsi,2), %di movswl %di, %r8d imull $20159, %r8d, %r8d sarl $26, %r8d imull $3329, %r8d, %r8d subw %r8w, %di movw %di, (%rcx,%rsi,2) incq %rsi Ljade_kem_kyber_kyber768_amd64_ref_dec$211: cmpq $256, %rsi jb Ljade_kem_kyber_kyber768_amd64_ref_dec$212 leaq 408(%rsp), %rcx call L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$210: leaq 1432(%rsp), %rcx leaq 920(%rsp), %rsi leaq 408(%rsp), %rdi call L_poly_sub$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$209: leaq 1432(%rsp), %rcx movq $0, %rsi jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$207 Ljade_kem_kyber_kyber768_amd64_ref_dec$208: movw (%rcx,%rsi,2), %di movswl %di, %r8d imull $20159, %r8d, %r8d sarl $26, %r8d imull $3329, %r8d, %r8d subw %r8w, %di movw %di, (%rcx,%rsi,2) incq %rsi Ljade_kem_kyber_kyber768_amd64_ref_dec$207: cmpq $256, %rsi jb Ljade_kem_kyber_kyber768_amd64_ref_dec$208 leaq 1432(%rsp), %rcx call L_i_poly_tomsg$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$206: leaq 32(%rdx), %rax addq $2304, %rax movq (%rax), %rcx movq %rcx, 112(%rsp) movq 8(%rax), %rcx movq %rcx, 120(%rsp) movq 16(%rax), %rcx movq %rcx, 128(%rsp) movq 24(%rax), %rax movq %rax, 136(%rsp) movq %rdx, 16(%rsp) leaq 144(%rsp), %rax leaq 80(%rsp), %rdx leaq -208(%rsp), %rsp call L_sha3_512_64$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$205: leaq 208(%rsp), %rsp movq 16(%rsp), %rdx addq $1152, %rdx leaq 13410(%rsp), %rsi leaq 80(%rsp), %rcx leaq 176(%rsp), %rax movq %rsi, 24(%rsp) movq %rdx, %rsi leaq 2456(%rsp), %rdi call L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$204: addq $384, %rsi leaq 2968(%rsp), %rdi call L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$203: addq $384, %rsi leaq 3480(%rsp), %rdi call L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$202: movq $0, %rsi addq $1152, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$200 Ljade_kem_kyber_kyber768_amd64_ref_dec$201: movq (%rdx), %rdi movq %rdi, 48(%rsp,%rsi,8) addq $8, %rdx incq %rsi Ljade_kem_kyber_kyber768_amd64_ref_dec$200: cmpq $4, %rsi jb Ljade_kem_kyber_kyber768_amd64_ref_dec$201 leaq 1432(%rsp), %rdx call L_i_poly_frommsg$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$199: movq $1, %rcx movq %rcx, 32(%rsp) movb 48(%rsp), %cl movb %cl, 13208(%rsp) movb 49(%rsp), %cl movb %cl, 13209(%rsp) movb 50(%rsp), %cl movb %cl, 13210(%rsp) movb 51(%rsp), %cl movb %cl, 13211(%rsp) movb 52(%rsp), %cl movb %cl, 13212(%rsp) movb 53(%rsp), %cl movb %cl, 13213(%rsp) movb 54(%rsp), %cl movb %cl, 13214(%rsp) movb 55(%rsp), %cl movb %cl, 13215(%rsp) movb 56(%rsp), %cl movb %cl, 13216(%rsp) movb 57(%rsp), %cl movb %cl, 13217(%rsp) movb 58(%rsp), %cl movb %cl, 13218(%rsp) movb 59(%rsp), %cl movb %cl, 13219(%rsp) movb 60(%rsp), %cl movb %cl, 13220(%rsp) movb 61(%rsp), %cl movb %cl, 13221(%rsp) movb 62(%rsp), %cl movb %cl, 13222(%rsp) movb 63(%rsp), %cl movb %cl, 13223(%rsp) movb 64(%rsp), %cl movb %cl, 13224(%rsp) movb 65(%rsp), %cl movb %cl, 13225(%rsp) movb 66(%rsp), %cl movb %cl, 13226(%rsp) movb 67(%rsp), %cl movb %cl, 13227(%rsp) movb 68(%rsp), %cl movb %cl, 13228(%rsp) movb 69(%rsp), %cl movb %cl, 13229(%rsp) movb 70(%rsp), %cl movb %cl, 13230(%rsp) movb 71(%rsp), %cl movb %cl, 13231(%rsp) movb 72(%rsp), %cl movb %cl, 13232(%rsp) movb 73(%rsp), %cl movb %cl, 13233(%rsp) movb 74(%rsp), %cl movb %cl, 13234(%rsp) movb 75(%rsp), %cl movb %cl, 13235(%rsp) movb 76(%rsp), %cl movb %cl, 13236(%rsp) movb 77(%rsp), %cl movb %cl, 13237(%rsp) movb 78(%rsp), %cl movb %cl, 13238(%rsp) movb 79(%rsp), %cl movb %cl, 13239(%rsp) movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$197 movb $0, 13240(%rsp) movb $0, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$198 Ljade_kem_kyber_kyber768_amd64_ref_dec$197: movb $0, 13240(%rsp) movb $0, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$198: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$196: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$194 Ljade_kem_kyber_kyber768_amd64_ref_dec$195: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$194: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$195 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$186 Ljade_kem_kyber_kyber768_amd64_ref_dec$187: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$193: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$188: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$191 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$191 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$192: Ljade_kem_kyber_kyber768_amd64_ref_dec$191: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$189 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$189 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$190: Ljade_kem_kyber_kyber768_amd64_ref_dec$189: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$188 Ljade_kem_kyber_kyber768_amd64_ref_dec$186: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$187 movq $0, %rcx movq $0, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$184 Ljade_kem_kyber_kyber768_amd64_ref_dec$185: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$184: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$185 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$182 movb $0, 13240(%rsp) movb $1, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$183 Ljade_kem_kyber_kyber768_amd64_ref_dec$182: movb $1, 13240(%rsp) movb $0, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$183: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$181: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$179 Ljade_kem_kyber_kyber768_amd64_ref_dec$180: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$179: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$180 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$171 Ljade_kem_kyber_kyber768_amd64_ref_dec$172: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$178: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$173: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$176 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$176 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$177: Ljade_kem_kyber_kyber768_amd64_ref_dec$176: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$174 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$174 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$175: Ljade_kem_kyber_kyber768_amd64_ref_dec$174: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$173 Ljade_kem_kyber_kyber768_amd64_ref_dec$171: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$172 movq $0, %rcx movq $256, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$169 Ljade_kem_kyber_kyber768_amd64_ref_dec$170: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$169: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$170 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$167 movb $0, 13240(%rsp) movb $2, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$168 Ljade_kem_kyber_kyber768_amd64_ref_dec$167: movb $2, 13240(%rsp) movb $0, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$168: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$166: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$164 Ljade_kem_kyber_kyber768_amd64_ref_dec$165: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$164: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$165 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$156 Ljade_kem_kyber_kyber768_amd64_ref_dec$157: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$163: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$158: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$161 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$161 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$162: Ljade_kem_kyber_kyber768_amd64_ref_dec$161: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$159 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$159 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$160: Ljade_kem_kyber_kyber768_amd64_ref_dec$159: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$158 Ljade_kem_kyber_kyber768_amd64_ref_dec$156: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$157 movq $0, %rcx movq $512, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$154 Ljade_kem_kyber_kyber768_amd64_ref_dec$155: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$154: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$155 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$152 movb $1, 13240(%rsp) movb $0, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$153 Ljade_kem_kyber_kyber768_amd64_ref_dec$152: movb $0, 13240(%rsp) movb $1, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$153: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$151: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$149 Ljade_kem_kyber_kyber768_amd64_ref_dec$150: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$149: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$150 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$141 Ljade_kem_kyber_kyber768_amd64_ref_dec$142: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$148: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$143: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$146 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$146 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$147: Ljade_kem_kyber_kyber768_amd64_ref_dec$146: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$144 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$144 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$145: Ljade_kem_kyber_kyber768_amd64_ref_dec$144: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$143 Ljade_kem_kyber_kyber768_amd64_ref_dec$141: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$142 movq $0, %rcx movq $768, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$139 Ljade_kem_kyber_kyber768_amd64_ref_dec$140: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$139: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$140 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$137 movb $1, 13240(%rsp) movb $1, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$138 Ljade_kem_kyber_kyber768_amd64_ref_dec$137: movb $1, 13240(%rsp) movb $1, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$138: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$136: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$134 Ljade_kem_kyber_kyber768_amd64_ref_dec$135: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$134: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$135 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$126 Ljade_kem_kyber_kyber768_amd64_ref_dec$127: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$133: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$128: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$131 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$131 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$132: Ljade_kem_kyber_kyber768_amd64_ref_dec$131: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$129 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$129 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$130: Ljade_kem_kyber_kyber768_amd64_ref_dec$129: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$128 Ljade_kem_kyber_kyber768_amd64_ref_dec$126: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$127 movq $0, %rcx movq $1024, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$124 Ljade_kem_kyber_kyber768_amd64_ref_dec$125: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$124: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$125 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$122 movb $1, 13240(%rsp) movb $2, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$123 Ljade_kem_kyber_kyber768_amd64_ref_dec$122: movb $2, 13240(%rsp) movb $1, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$123: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$121: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$119 Ljade_kem_kyber_kyber768_amd64_ref_dec$120: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$119: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$120 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$111 Ljade_kem_kyber_kyber768_amd64_ref_dec$112: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$118: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$113: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$116 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$116 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$117: Ljade_kem_kyber_kyber768_amd64_ref_dec$116: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$114 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$114 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$115: Ljade_kem_kyber_kyber768_amd64_ref_dec$114: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$113 Ljade_kem_kyber_kyber768_amd64_ref_dec$111: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$112 movq $0, %rcx movq $1280, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$109 Ljade_kem_kyber_kyber768_amd64_ref_dec$110: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$109: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$110 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$107 movb $2, 13240(%rsp) movb $0, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$108 Ljade_kem_kyber_kyber768_amd64_ref_dec$107: movb $0, 13240(%rsp) movb $2, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$108: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$106: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$104 Ljade_kem_kyber_kyber768_amd64_ref_dec$105: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$104: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$105 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$96 Ljade_kem_kyber_kyber768_amd64_ref_dec$97: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$103: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$98: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$101 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$101 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$102: Ljade_kem_kyber_kyber768_amd64_ref_dec$101: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$99 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$99 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$100: Ljade_kem_kyber_kyber768_amd64_ref_dec$99: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$98 Ljade_kem_kyber_kyber768_amd64_ref_dec$96: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$97 movq $0, %rcx movq $1536, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$94 Ljade_kem_kyber_kyber768_amd64_ref_dec$95: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$94: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$95 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$92 movb $2, 13240(%rsp) movb $1, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$93 Ljade_kem_kyber_kyber768_amd64_ref_dec$92: movb $1, 13240(%rsp) movb $2, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$93: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$91: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$89 Ljade_kem_kyber_kyber768_amd64_ref_dec$90: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$89: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$90 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$81 Ljade_kem_kyber_kyber768_amd64_ref_dec$82: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$88: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$83: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$86 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$86 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$87: Ljade_kem_kyber_kyber768_amd64_ref_dec$86: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$84 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$84 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$85: Ljade_kem_kyber_kyber768_amd64_ref_dec$84: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$83 Ljade_kem_kyber_kyber768_amd64_ref_dec$81: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$82 movq $0, %rcx movq $1792, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$79 Ljade_kem_kyber_kyber768_amd64_ref_dec$80: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$79: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$80 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$77 movb $2, 13240(%rsp) movb $2, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$78 Ljade_kem_kyber_kyber768_amd64_ref_dec$77: movb $2, 13240(%rsp) movb $2, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$78: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$76: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$74 Ljade_kem_kyber_kyber768_amd64_ref_dec$75: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$74: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$75 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$66 Ljade_kem_kyber_kyber768_amd64_ref_dec$67: movq %rcx, 32(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$73: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$68: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$71 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$71 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$72: Ljade_kem_kyber_kyber768_amd64_ref_dec$71: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$69 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$69 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$70: Ljade_kem_kyber_kyber768_amd64_ref_dec$69: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$68 Ljade_kem_kyber_kyber768_amd64_ref_dec$66: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$67 movq $0, %rcx movq $2048, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$64 Ljade_kem_kyber_kyber768_amd64_ref_dec$65: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$64: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$65 movb $0, %cl leaq 3992(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$63: leaq 176(%rsp), %rsp movb $1, %cl leaq 4504(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$62: leaq 176(%rsp), %rsp movb $2, %cl leaq 5016(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$61: leaq 176(%rsp), %rsp movb $3, %cl leaq 5528(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$60: leaq 176(%rsp), %rsp movb $4, %cl leaq 6040(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$59: leaq 176(%rsp), %rsp movb $5, %cl leaq 6552(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$58: leaq 176(%rsp), %rsp movb $6, %cl leaq 408(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$57: leaq 176(%rsp), %rsp leaq 3992(%rsp), %rcx call L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$56: leaq 4504(%rsp), %rcx call L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$55: leaq 5016(%rsp), %rcx call L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$54: leaq 7064(%rsp), %rdi leaq 8600(%rsp), %rcx leaq 3992(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$53: leaq 16(%rsp), %rsp leaq 920(%rsp), %rdi leaq 9112(%rsp), %rcx leaq 4504(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$52: leaq 16(%rsp), %rsp leaq 7064(%rsp), %rcx leaq 920(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$51: leaq 920(%rsp), %rdi leaq 9624(%rsp), %rcx leaq 5016(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$50: leaq 16(%rsp), %rsp leaq 7064(%rsp), %rcx leaq 920(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$49: leaq 7064(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$47 Ljade_kem_kyber_kyber768_amd64_ref_dec$48: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$47: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$48 leaq 7576(%rsp), %rdi leaq 10136(%rsp), %rcx leaq 3992(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$46: leaq 16(%rsp), %rsp leaq 920(%rsp), %rdi leaq 10648(%rsp), %rcx leaq 4504(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$45: leaq 16(%rsp), %rsp leaq 7576(%rsp), %rcx leaq 920(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$44: leaq 920(%rsp), %rdi leaq 11160(%rsp), %rcx leaq 5016(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$43: leaq 16(%rsp), %rsp leaq 7576(%rsp), %rcx leaq 920(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$42: leaq 7576(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$40 Ljade_kem_kyber_kyber768_amd64_ref_dec$41: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$40: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$41 leaq 8088(%rsp), %rdi leaq 11672(%rsp), %rcx leaq 3992(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$39: leaq 16(%rsp), %rsp leaq 920(%rsp), %rdi leaq 12184(%rsp), %rcx leaq 4504(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$38: leaq 16(%rsp), %rsp leaq 8088(%rsp), %rcx leaq 920(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$37: leaq 920(%rsp), %rdi leaq 12696(%rsp), %rcx leaq 5016(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$36: leaq 16(%rsp), %rsp leaq 8088(%rsp), %rcx leaq 920(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$35: leaq 8088(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$33 Ljade_kem_kyber_kyber768_amd64_ref_dec$34: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$33: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$34 leaq 920(%rsp), %rdi leaq 2456(%rsp), %rcx leaq 3992(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$32: leaq 16(%rsp), %rsp leaq 1944(%rsp), %rdi leaq 2968(%rsp), %rcx leaq 4504(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$31: leaq 16(%rsp), %rsp leaq 920(%rsp), %rcx leaq 1944(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$30: leaq 1944(%rsp), %rdi leaq 3480(%rsp), %rcx leaq 5016(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$29: leaq 16(%rsp), %rsp leaq 920(%rsp), %rcx leaq 1944(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$28: leaq 920(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$26 Ljade_kem_kyber_kyber768_amd64_ref_dec$27: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$26: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$27 leaq 7064(%rsp), %rcx call L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$25: leaq 7576(%rsp), %rcx call L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$24: leaq 8088(%rsp), %rcx call L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$23: leaq 920(%rsp), %rcx call L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$22: leaq 7064(%rsp), %rcx leaq 5528(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$21: leaq 7576(%rsp), %rcx leaq 6040(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$20: leaq 8088(%rsp), %rcx leaq 6552(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$19: leaq 920(%rsp), %rcx leaq 408(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$18: leaq 920(%rsp), %rcx leaq 1432(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$17: leaq 7064(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$15 Ljade_kem_kyber_kyber768_amd64_ref_dec$16: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$15: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$16 leaq 7576(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$13 Ljade_kem_kyber_kyber768_amd64_ref_dec$14: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$13: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$14 leaq 8088(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$11 Ljade_kem_kyber_kyber768_amd64_ref_dec$12: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$11: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$12 leaq 920(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$9 Ljade_kem_kyber_kyber768_amd64_ref_dec$10: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$9: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$10 movq 24(%rsp), %rax movq %rax, %rdx movq $0, %rsi movq $0, %rdi leaq 7064(%rsp), %rcx call L_poly_csubq$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$8: leaq 7576(%rsp), %rcx call L_poly_csubq$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$7: leaq 8088(%rsp), %rcx call L_poly_csubq$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$6: jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$4 Ljade_kem_kyber_kyber768_amd64_ref_dec$5: movzwq 7064(%rsp,%rsi,2), %rcx incq %rsi shlq $10, %rcx addq $1665, %rcx imulq $1290167, %rcx, %rcx shrq $32, %rcx andq $1023, %rcx movzwq 7064(%rsp,%rsi,2), %r8 incq %rsi shlq $10, %r8 addq $1665, %r8 imulq $1290167, %r8, %r8 shrq $32, %r8 andq $1023, %r8 movzwq 7064(%rsp,%rsi,2), %r9 incq %rsi shlq $10, %r9 addq $1665, %r9 imulq $1290167, %r9, %r9 shrq $32, %r9 andq $1023, %r9 movzwq 7064(%rsp,%rsi,2), %r10 incq %rsi shlq $10, %r10 addq $1665, %r10 imulq $1290167, %r10, %r10 shrq $32, %r10 andq $1023, %r10 movw %cx, %r11w andw $255, %r11w movb %r11b, (%rdx,%rdi) incq %rdi shrw $8, %cx movw %r8w, %r11w shlw $2, %r11w orw %cx, %r11w movb %r11b, (%rdx,%rdi) incq %rdi shrw $6, %r8w movw %r9w, %cx shlw $4, %cx orw %r8w, %cx movb %cl, (%rdx,%rdi) incq %rdi shrw $4, %r9w movw %r10w, %cx shlw $6, %cx orw %r9w, %cx movb %cl, (%rdx,%rdi) incq %rdi shrq $2, %r10 movb %r10b, (%rdx,%rdi) incq %rdi Ljade_kem_kyber_kyber768_amd64_ref_dec$4: cmpq $768, %rsi jb Ljade_kem_kyber_kyber768_amd64_ref_dec$5 leaq 960(%rax), %rax leaq 920(%rsp), %rcx call L_i_poly_compress$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$3: movq 8(%rsp), %rsi leaq 13410(%rsp), %rax movq $0, %rcx movb (%rax), %dl movb (%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1(%rax), %dl movb 1(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 2(%rax), %dl movb 2(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 3(%rax), %dl movb 3(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 4(%rax), %dl movb 4(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 5(%rax), %dl movb 5(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 6(%rax), %dl movb 6(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 7(%rax), %dl movb 7(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 8(%rax), %dl movb 8(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 9(%rax), %dl movb 9(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 10(%rax), %dl movb 10(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 11(%rax), %dl movb 11(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 12(%rax), %dl movb 12(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 13(%rax), %dl movb 13(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 14(%rax), %dl movb 14(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 15(%rax), %dl movb 15(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 16(%rax), %dl movb 16(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 17(%rax), %dl movb 17(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 18(%rax), %dl movb 18(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 19(%rax), %dl movb 19(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 20(%rax), %dl movb 20(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 21(%rax), %dl movb 21(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 22(%rax), %dl movb 22(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 23(%rax), %dl movb 23(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 24(%rax), %dl movb 24(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 25(%rax), %dl movb 25(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 26(%rax), %dl movb 26(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 27(%rax), %dl movb 27(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 28(%rax), %dl movb 28(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 29(%rax), %dl movb 29(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 30(%rax), %dl movb 30(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 31(%rax), %dl movb 31(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 32(%rax), %dl movb 32(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 33(%rax), %dl movb 33(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 34(%rax), %dl movb 34(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 35(%rax), %dl movb 35(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 36(%rax), %dl movb 36(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 37(%rax), %dl movb 37(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 38(%rax), %dl movb 38(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 39(%rax), %dl movb 39(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 40(%rax), %dl movb 40(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 41(%rax), %dl movb 41(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 42(%rax), %dl movb 42(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 43(%rax), %dl movb 43(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 44(%rax), %dl movb 44(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 45(%rax), %dl movb 45(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 46(%rax), %dl movb 46(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 47(%rax), %dl movb 47(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 48(%rax), %dl movb 48(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 49(%rax), %dl movb 49(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 50(%rax), %dl movb 50(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 51(%rax), %dl movb 51(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 52(%rax), %dl movb 52(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 53(%rax), %dl movb 53(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 54(%rax), %dl movb 54(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 55(%rax), %dl movb 55(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 56(%rax), %dl movb 56(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 57(%rax), %dl movb 57(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 58(%rax), %dl movb 58(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 59(%rax), %dl movb 59(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 60(%rax), %dl movb 60(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 61(%rax), %dl movb 61(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 62(%rax), %dl movb 62(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 63(%rax), %dl movb 63(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 64(%rax), %dl movb 64(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 65(%rax), %dl movb 65(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 66(%rax), %dl movb 66(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 67(%rax), %dl movb 67(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 68(%rax), %dl movb 68(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 69(%rax), %dl movb 69(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 70(%rax), %dl movb 70(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 71(%rax), %dl movb 71(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 72(%rax), %dl movb 72(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 73(%rax), %dl movb 73(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 74(%rax), %dl movb 74(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 75(%rax), %dl movb 75(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 76(%rax), %dl movb 76(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 77(%rax), %dl movb 77(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 78(%rax), %dl movb 78(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 79(%rax), %dl movb 79(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 80(%rax), %dl movb 80(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 81(%rax), %dl movb 81(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 82(%rax), %dl movb 82(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 83(%rax), %dl movb 83(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 84(%rax), %dl movb 84(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 85(%rax), %dl movb 85(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 86(%rax), %dl movb 86(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 87(%rax), %dl movb 87(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 88(%rax), %dl movb 88(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 89(%rax), %dl movb 89(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 90(%rax), %dl movb 90(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 91(%rax), %dl movb 91(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 92(%rax), %dl movb 92(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 93(%rax), %dl movb 93(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 94(%rax), %dl movb 94(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 95(%rax), %dl movb 95(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 96(%rax), %dl movb 96(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 97(%rax), %dl movb 97(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 98(%rax), %dl movb 98(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 99(%rax), %dl movb 99(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 100(%rax), %dl movb 100(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 101(%rax), %dl movb 101(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 102(%rax), %dl movb 102(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 103(%rax), %dl movb 103(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 104(%rax), %dl movb 104(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 105(%rax), %dl movb 105(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 106(%rax), %dl movb 106(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 107(%rax), %dl movb 107(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 108(%rax), %dl movb 108(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 109(%rax), %dl movb 109(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 110(%rax), %dl movb 110(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 111(%rax), %dl movb 111(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 112(%rax), %dl movb 112(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 113(%rax), %dl movb 113(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 114(%rax), %dl movb 114(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 115(%rax), %dl movb 115(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 116(%rax), %dl movb 116(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 117(%rax), %dl movb 117(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 118(%rax), %dl movb 118(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 119(%rax), %dl movb 119(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 120(%rax), %dl movb 120(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 121(%rax), %dl movb 121(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 122(%rax), %dl movb 122(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 123(%rax), %dl movb 123(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 124(%rax), %dl movb 124(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 125(%rax), %dl movb 125(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 126(%rax), %dl movb 126(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 127(%rax), %dl movb 127(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 128(%rax), %dl movb 128(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 129(%rax), %dl movb 129(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 130(%rax), %dl movb 130(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 131(%rax), %dl movb 131(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 132(%rax), %dl movb 132(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 133(%rax), %dl movb 133(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 134(%rax), %dl movb 134(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 135(%rax), %dl movb 135(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 136(%rax), %dl movb 136(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 137(%rax), %dl movb 137(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 138(%rax), %dl movb 138(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 139(%rax), %dl movb 139(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 140(%rax), %dl movb 140(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 141(%rax), %dl movb 141(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 142(%rax), %dl movb 142(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 143(%rax), %dl movb 143(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 144(%rax), %dl movb 144(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 145(%rax), %dl movb 145(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 146(%rax), %dl movb 146(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 147(%rax), %dl movb 147(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 148(%rax), %dl movb 148(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 149(%rax), %dl movb 149(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 150(%rax), %dl movb 150(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 151(%rax), %dl movb 151(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 152(%rax), %dl movb 152(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 153(%rax), %dl movb 153(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 154(%rax), %dl movb 154(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 155(%rax), %dl movb 155(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 156(%rax), %dl movb 156(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 157(%rax), %dl movb 157(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 158(%rax), %dl movb 158(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 159(%rax), %dl movb 159(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 160(%rax), %dl movb 160(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 161(%rax), %dl movb 161(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 162(%rax), %dl movb 162(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 163(%rax), %dl movb 163(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 164(%rax), %dl movb 164(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 165(%rax), %dl movb 165(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 166(%rax), %dl movb 166(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 167(%rax), %dl movb 167(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 168(%rax), %dl movb 168(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 169(%rax), %dl movb 169(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 170(%rax), %dl movb 170(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 171(%rax), %dl movb 171(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 172(%rax), %dl movb 172(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 173(%rax), %dl movb 173(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 174(%rax), %dl movb 174(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 175(%rax), %dl movb 175(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 176(%rax), %dl movb 176(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 177(%rax), %dl movb 177(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 178(%rax), %dl movb 178(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 179(%rax), %dl movb 179(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 180(%rax), %dl movb 180(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 181(%rax), %dl movb 181(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 182(%rax), %dl movb 182(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 183(%rax), %dl movb 183(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 184(%rax), %dl movb 184(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 185(%rax), %dl movb 185(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 186(%rax), %dl movb 186(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 187(%rax), %dl movb 187(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 188(%rax), %dl movb 188(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 189(%rax), %dl movb 189(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 190(%rax), %dl movb 190(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 191(%rax), %dl movb 191(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 192(%rax), %dl movb 192(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 193(%rax), %dl movb 193(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 194(%rax), %dl movb 194(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 195(%rax), %dl movb 195(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 196(%rax), %dl movb 196(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 197(%rax), %dl movb 197(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 198(%rax), %dl movb 198(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 199(%rax), %dl movb 199(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 200(%rax), %dl movb 200(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 201(%rax), %dl movb 201(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 202(%rax), %dl movb 202(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 203(%rax), %dl movb 203(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 204(%rax), %dl movb 204(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 205(%rax), %dl movb 205(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 206(%rax), %dl movb 206(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 207(%rax), %dl movb 207(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 208(%rax), %dl movb 208(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 209(%rax), %dl movb 209(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 210(%rax), %dl movb 210(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 211(%rax), %dl movb 211(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 212(%rax), %dl movb 212(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 213(%rax), %dl movb 213(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 214(%rax), %dl movb 214(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 215(%rax), %dl movb 215(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 216(%rax), %dl movb 216(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 217(%rax), %dl movb 217(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 218(%rax), %dl movb 218(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 219(%rax), %dl movb 219(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 220(%rax), %dl movb 220(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 221(%rax), %dl movb 221(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 222(%rax), %dl movb 222(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 223(%rax), %dl movb 223(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 224(%rax), %dl movb 224(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 225(%rax), %dl movb 225(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 226(%rax), %dl movb 226(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 227(%rax), %dl movb 227(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 228(%rax), %dl movb 228(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 229(%rax), %dl movb 229(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 230(%rax), %dl movb 230(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 231(%rax), %dl movb 231(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 232(%rax), %dl movb 232(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 233(%rax), %dl movb 233(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 234(%rax), %dl movb 234(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 235(%rax), %dl movb 235(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 236(%rax), %dl movb 236(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 237(%rax), %dl movb 237(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 238(%rax), %dl movb 238(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 239(%rax), %dl movb 239(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 240(%rax), %dl movb 240(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 241(%rax), %dl movb 241(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 242(%rax), %dl movb 242(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 243(%rax), %dl movb 243(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 244(%rax), %dl movb 244(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 245(%rax), %dl movb 245(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 246(%rax), %dl movb 246(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 247(%rax), %dl movb 247(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 248(%rax), %dl movb 248(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 249(%rax), %dl movb 249(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 250(%rax), %dl movb 250(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 251(%rax), %dl movb 251(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 252(%rax), %dl movb 252(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 253(%rax), %dl movb 253(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 254(%rax), %dl movb 254(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 255(%rax), %dl movb 255(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 256(%rax), %dl movb 256(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 257(%rax), %dl movb 257(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 258(%rax), %dl movb 258(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 259(%rax), %dl movb 259(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 260(%rax), %dl movb 260(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 261(%rax), %dl movb 261(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 262(%rax), %dl movb 262(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 263(%rax), %dl movb 263(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 264(%rax), %dl movb 264(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 265(%rax), %dl movb 265(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 266(%rax), %dl movb 266(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 267(%rax), %dl movb 267(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 268(%rax), %dl movb 268(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 269(%rax), %dl movb 269(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 270(%rax), %dl movb 270(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 271(%rax), %dl movb 271(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 272(%rax), %dl movb 272(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 273(%rax), %dl movb 273(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 274(%rax), %dl movb 274(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 275(%rax), %dl movb 275(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 276(%rax), %dl movb 276(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 277(%rax), %dl movb 277(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 278(%rax), %dl movb 278(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 279(%rax), %dl movb 279(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 280(%rax), %dl movb 280(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 281(%rax), %dl movb 281(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 282(%rax), %dl movb 282(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 283(%rax), %dl movb 283(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 284(%rax), %dl movb 284(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 285(%rax), %dl movb 285(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 286(%rax), %dl movb 286(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 287(%rax), %dl movb 287(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 288(%rax), %dl movb 288(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 289(%rax), %dl movb 289(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 290(%rax), %dl movb 290(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 291(%rax), %dl movb 291(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 292(%rax), %dl movb 292(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 293(%rax), %dl movb 293(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 294(%rax), %dl movb 294(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 295(%rax), %dl movb 295(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 296(%rax), %dl movb 296(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 297(%rax), %dl movb 297(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 298(%rax), %dl movb 298(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 299(%rax), %dl movb 299(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 300(%rax), %dl movb 300(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 301(%rax), %dl movb 301(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 302(%rax), %dl movb 302(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 303(%rax), %dl movb 303(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 304(%rax), %dl movb 304(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 305(%rax), %dl movb 305(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 306(%rax), %dl movb 306(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 307(%rax), %dl movb 307(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 308(%rax), %dl movb 308(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 309(%rax), %dl movb 309(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 310(%rax), %dl movb 310(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 311(%rax), %dl movb 311(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 312(%rax), %dl movb 312(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 313(%rax), %dl movb 313(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 314(%rax), %dl movb 314(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 315(%rax), %dl movb 315(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 316(%rax), %dl movb 316(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 317(%rax), %dl movb 317(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 318(%rax), %dl movb 318(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 319(%rax), %dl movb 319(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 320(%rax), %dl movb 320(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 321(%rax), %dl movb 321(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 322(%rax), %dl movb 322(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 323(%rax), %dl movb 323(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 324(%rax), %dl movb 324(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 325(%rax), %dl movb 325(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 326(%rax), %dl movb 326(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 327(%rax), %dl movb 327(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 328(%rax), %dl movb 328(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 329(%rax), %dl movb 329(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 330(%rax), %dl movb 330(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 331(%rax), %dl movb 331(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 332(%rax), %dl movb 332(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 333(%rax), %dl movb 333(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 334(%rax), %dl movb 334(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 335(%rax), %dl movb 335(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 336(%rax), %dl movb 336(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 337(%rax), %dl movb 337(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 338(%rax), %dl movb 338(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 339(%rax), %dl movb 339(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 340(%rax), %dl movb 340(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 341(%rax), %dl movb 341(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 342(%rax), %dl movb 342(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 343(%rax), %dl movb 343(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 344(%rax), %dl movb 344(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 345(%rax), %dl movb 345(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 346(%rax), %dl movb 346(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 347(%rax), %dl movb 347(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 348(%rax), %dl movb 348(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 349(%rax), %dl movb 349(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 350(%rax), %dl movb 350(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 351(%rax), %dl movb 351(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 352(%rax), %dl movb 352(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 353(%rax), %dl movb 353(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 354(%rax), %dl movb 354(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 355(%rax), %dl movb 355(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 356(%rax), %dl movb 356(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 357(%rax), %dl movb 357(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 358(%rax), %dl movb 358(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 359(%rax), %dl movb 359(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 360(%rax), %dl movb 360(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 361(%rax), %dl movb 361(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 362(%rax), %dl movb 362(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 363(%rax), %dl movb 363(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 364(%rax), %dl movb 364(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 365(%rax), %dl movb 365(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 366(%rax), %dl movb 366(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 367(%rax), %dl movb 367(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 368(%rax), %dl movb 368(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 369(%rax), %dl movb 369(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 370(%rax), %dl movb 370(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 371(%rax), %dl movb 371(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 372(%rax), %dl movb 372(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 373(%rax), %dl movb 373(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 374(%rax), %dl movb 374(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 375(%rax), %dl movb 375(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 376(%rax), %dl movb 376(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 377(%rax), %dl movb 377(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 378(%rax), %dl movb 378(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 379(%rax), %dl movb 379(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 380(%rax), %dl movb 380(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 381(%rax), %dl movb 381(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 382(%rax), %dl movb 382(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 383(%rax), %dl movb 383(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 384(%rax), %dl movb 384(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 385(%rax), %dl movb 385(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 386(%rax), %dl movb 386(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 387(%rax), %dl movb 387(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 388(%rax), %dl movb 388(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 389(%rax), %dl movb 389(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 390(%rax), %dl movb 390(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 391(%rax), %dl movb 391(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 392(%rax), %dl movb 392(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 393(%rax), %dl movb 393(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 394(%rax), %dl movb 394(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 395(%rax), %dl movb 395(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 396(%rax), %dl movb 396(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 397(%rax), %dl movb 397(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 398(%rax), %dl movb 398(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 399(%rax), %dl movb 399(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 400(%rax), %dl movb 400(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 401(%rax), %dl movb 401(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 402(%rax), %dl movb 402(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 403(%rax), %dl movb 403(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 404(%rax), %dl movb 404(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 405(%rax), %dl movb 405(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 406(%rax), %dl movb 406(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 407(%rax), %dl movb 407(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 408(%rax), %dl movb 408(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 409(%rax), %dl movb 409(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 410(%rax), %dl movb 410(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 411(%rax), %dl movb 411(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 412(%rax), %dl movb 412(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 413(%rax), %dl movb 413(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 414(%rax), %dl movb 414(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 415(%rax), %dl movb 415(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 416(%rax), %dl movb 416(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 417(%rax), %dl movb 417(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 418(%rax), %dl movb 418(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 419(%rax), %dl movb 419(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 420(%rax), %dl movb 420(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 421(%rax), %dl movb 421(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 422(%rax), %dl movb 422(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 423(%rax), %dl movb 423(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 424(%rax), %dl movb 424(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 425(%rax), %dl movb 425(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 426(%rax), %dl movb 426(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 427(%rax), %dl movb 427(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 428(%rax), %dl movb 428(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 429(%rax), %dl movb 429(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 430(%rax), %dl movb 430(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 431(%rax), %dl movb 431(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 432(%rax), %dl movb 432(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 433(%rax), %dl movb 433(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 434(%rax), %dl movb 434(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 435(%rax), %dl movb 435(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 436(%rax), %dl movb 436(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 437(%rax), %dl movb 437(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 438(%rax), %dl movb 438(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 439(%rax), %dl movb 439(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 440(%rax), %dl movb 440(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 441(%rax), %dl movb 441(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 442(%rax), %dl movb 442(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 443(%rax), %dl movb 443(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 444(%rax), %dl movb 444(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 445(%rax), %dl movb 445(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 446(%rax), %dl movb 446(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 447(%rax), %dl movb 447(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 448(%rax), %dl movb 448(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 449(%rax), %dl movb 449(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 450(%rax), %dl movb 450(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 451(%rax), %dl movb 451(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 452(%rax), %dl movb 452(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 453(%rax), %dl movb 453(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 454(%rax), %dl movb 454(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 455(%rax), %dl movb 455(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 456(%rax), %dl movb 456(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 457(%rax), %dl movb 457(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 458(%rax), %dl movb 458(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 459(%rax), %dl movb 459(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 460(%rax), %dl movb 460(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 461(%rax), %dl movb 461(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 462(%rax), %dl movb 462(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 463(%rax), %dl movb 463(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 464(%rax), %dl movb 464(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 465(%rax), %dl movb 465(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 466(%rax), %dl movb 466(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 467(%rax), %dl movb 467(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 468(%rax), %dl movb 468(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 469(%rax), %dl movb 469(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 470(%rax), %dl movb 470(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 471(%rax), %dl movb 471(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 472(%rax), %dl movb 472(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 473(%rax), %dl movb 473(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 474(%rax), %dl movb 474(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 475(%rax), %dl movb 475(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 476(%rax), %dl movb 476(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 477(%rax), %dl movb 477(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 478(%rax), %dl movb 478(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 479(%rax), %dl movb 479(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 480(%rax), %dl movb 480(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 481(%rax), %dl movb 481(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 482(%rax), %dl movb 482(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 483(%rax), %dl movb 483(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 484(%rax), %dl movb 484(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 485(%rax), %dl movb 485(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 486(%rax), %dl movb 486(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 487(%rax), %dl movb 487(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 488(%rax), %dl movb 488(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 489(%rax), %dl movb 489(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 490(%rax), %dl movb 490(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 491(%rax), %dl movb 491(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 492(%rax), %dl movb 492(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 493(%rax), %dl movb 493(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 494(%rax), %dl movb 494(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 495(%rax), %dl movb 495(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 496(%rax), %dl movb 496(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 497(%rax), %dl movb 497(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 498(%rax), %dl movb 498(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 499(%rax), %dl movb 499(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 500(%rax), %dl movb 500(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 501(%rax), %dl movb 501(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 502(%rax), %dl movb 502(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 503(%rax), %dl movb 503(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 504(%rax), %dl movb 504(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 505(%rax), %dl movb 505(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 506(%rax), %dl movb 506(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 507(%rax), %dl movb 507(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 508(%rax), %dl movb 508(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 509(%rax), %dl movb 509(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 510(%rax), %dl movb 510(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 511(%rax), %dl movb 511(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 512(%rax), %dl movb 512(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 513(%rax), %dl movb 513(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 514(%rax), %dl movb 514(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 515(%rax), %dl movb 515(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 516(%rax), %dl movb 516(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 517(%rax), %dl movb 517(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 518(%rax), %dl movb 518(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 519(%rax), %dl movb 519(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 520(%rax), %dl movb 520(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 521(%rax), %dl movb 521(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 522(%rax), %dl movb 522(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 523(%rax), %dl movb 523(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 524(%rax), %dl movb 524(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 525(%rax), %dl movb 525(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 526(%rax), %dl movb 526(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 527(%rax), %dl movb 527(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 528(%rax), %dl movb 528(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 529(%rax), %dl movb 529(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 530(%rax), %dl movb 530(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 531(%rax), %dl movb 531(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 532(%rax), %dl movb 532(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 533(%rax), %dl movb 533(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 534(%rax), %dl movb 534(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 535(%rax), %dl movb 535(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 536(%rax), %dl movb 536(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 537(%rax), %dl movb 537(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 538(%rax), %dl movb 538(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 539(%rax), %dl movb 539(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 540(%rax), %dl movb 540(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 541(%rax), %dl movb 541(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 542(%rax), %dl movb 542(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 543(%rax), %dl movb 543(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 544(%rax), %dl movb 544(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 545(%rax), %dl movb 545(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 546(%rax), %dl movb 546(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 547(%rax), %dl movb 547(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 548(%rax), %dl movb 548(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 549(%rax), %dl movb 549(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 550(%rax), %dl movb 550(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 551(%rax), %dl movb 551(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 552(%rax), %dl movb 552(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 553(%rax), %dl movb 553(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 554(%rax), %dl movb 554(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 555(%rax), %dl movb 555(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 556(%rax), %dl movb 556(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 557(%rax), %dl movb 557(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 558(%rax), %dl movb 558(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 559(%rax), %dl movb 559(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 560(%rax), %dl movb 560(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 561(%rax), %dl movb 561(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 562(%rax), %dl movb 562(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 563(%rax), %dl movb 563(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 564(%rax), %dl movb 564(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 565(%rax), %dl movb 565(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 566(%rax), %dl movb 566(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 567(%rax), %dl movb 567(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 568(%rax), %dl movb 568(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 569(%rax), %dl movb 569(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 570(%rax), %dl movb 570(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 571(%rax), %dl movb 571(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 572(%rax), %dl movb 572(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 573(%rax), %dl movb 573(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 574(%rax), %dl movb 574(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 575(%rax), %dl movb 575(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 576(%rax), %dl movb 576(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 577(%rax), %dl movb 577(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 578(%rax), %dl movb 578(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 579(%rax), %dl movb 579(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 580(%rax), %dl movb 580(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 581(%rax), %dl movb 581(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 582(%rax), %dl movb 582(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 583(%rax), %dl movb 583(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 584(%rax), %dl movb 584(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 585(%rax), %dl movb 585(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 586(%rax), %dl movb 586(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 587(%rax), %dl movb 587(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 588(%rax), %dl movb 588(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 589(%rax), %dl movb 589(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 590(%rax), %dl movb 590(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 591(%rax), %dl movb 591(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 592(%rax), %dl movb 592(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 593(%rax), %dl movb 593(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 594(%rax), %dl movb 594(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 595(%rax), %dl movb 595(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 596(%rax), %dl movb 596(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 597(%rax), %dl movb 597(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 598(%rax), %dl movb 598(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 599(%rax), %dl movb 599(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 600(%rax), %dl movb 600(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 601(%rax), %dl movb 601(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 602(%rax), %dl movb 602(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 603(%rax), %dl movb 603(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 604(%rax), %dl movb 604(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 605(%rax), %dl movb 605(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 606(%rax), %dl movb 606(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 607(%rax), %dl movb 607(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 608(%rax), %dl movb 608(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 609(%rax), %dl movb 609(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 610(%rax), %dl movb 610(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 611(%rax), %dl movb 611(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 612(%rax), %dl movb 612(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 613(%rax), %dl movb 613(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 614(%rax), %dl movb 614(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 615(%rax), %dl movb 615(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 616(%rax), %dl movb 616(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 617(%rax), %dl movb 617(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 618(%rax), %dl movb 618(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 619(%rax), %dl movb 619(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 620(%rax), %dl movb 620(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 621(%rax), %dl movb 621(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 622(%rax), %dl movb 622(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 623(%rax), %dl movb 623(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 624(%rax), %dl movb 624(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 625(%rax), %dl movb 625(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 626(%rax), %dl movb 626(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 627(%rax), %dl movb 627(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 628(%rax), %dl movb 628(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 629(%rax), %dl movb 629(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 630(%rax), %dl movb 630(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 631(%rax), %dl movb 631(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 632(%rax), %dl movb 632(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 633(%rax), %dl movb 633(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 634(%rax), %dl movb 634(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 635(%rax), %dl movb 635(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 636(%rax), %dl movb 636(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 637(%rax), %dl movb 637(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 638(%rax), %dl movb 638(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 639(%rax), %dl movb 639(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 640(%rax), %dl movb 640(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 641(%rax), %dl movb 641(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 642(%rax), %dl movb 642(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 643(%rax), %dl movb 643(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 644(%rax), %dl movb 644(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 645(%rax), %dl movb 645(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 646(%rax), %dl movb 646(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 647(%rax), %dl movb 647(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 648(%rax), %dl movb 648(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 649(%rax), %dl movb 649(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 650(%rax), %dl movb 650(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 651(%rax), %dl movb 651(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 652(%rax), %dl movb 652(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 653(%rax), %dl movb 653(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 654(%rax), %dl movb 654(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 655(%rax), %dl movb 655(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 656(%rax), %dl movb 656(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 657(%rax), %dl movb 657(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 658(%rax), %dl movb 658(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 659(%rax), %dl movb 659(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 660(%rax), %dl movb 660(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 661(%rax), %dl movb 661(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 662(%rax), %dl movb 662(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 663(%rax), %dl movb 663(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 664(%rax), %dl movb 664(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 665(%rax), %dl movb 665(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 666(%rax), %dl movb 666(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 667(%rax), %dl movb 667(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 668(%rax), %dl movb 668(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 669(%rax), %dl movb 669(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 670(%rax), %dl movb 670(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 671(%rax), %dl movb 671(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 672(%rax), %dl movb 672(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 673(%rax), %dl movb 673(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 674(%rax), %dl movb 674(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 675(%rax), %dl movb 675(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 676(%rax), %dl movb 676(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 677(%rax), %dl movb 677(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 678(%rax), %dl movb 678(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 679(%rax), %dl movb 679(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 680(%rax), %dl movb 680(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 681(%rax), %dl movb 681(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 682(%rax), %dl movb 682(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 683(%rax), %dl movb 683(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 684(%rax), %dl movb 684(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 685(%rax), %dl movb 685(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 686(%rax), %dl movb 686(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 687(%rax), %dl movb 687(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 688(%rax), %dl movb 688(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 689(%rax), %dl movb 689(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 690(%rax), %dl movb 690(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 691(%rax), %dl movb 691(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 692(%rax), %dl movb 692(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 693(%rax), %dl movb 693(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 694(%rax), %dl movb 694(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 695(%rax), %dl movb 695(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 696(%rax), %dl movb 696(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 697(%rax), %dl movb 697(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 698(%rax), %dl movb 698(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 699(%rax), %dl movb 699(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 700(%rax), %dl movb 700(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 701(%rax), %dl movb 701(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 702(%rax), %dl movb 702(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 703(%rax), %dl movb 703(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 704(%rax), %dl movb 704(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 705(%rax), %dl movb 705(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 706(%rax), %dl movb 706(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 707(%rax), %dl movb 707(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 708(%rax), %dl movb 708(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 709(%rax), %dl movb 709(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 710(%rax), %dl movb 710(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 711(%rax), %dl movb 711(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 712(%rax), %dl movb 712(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 713(%rax), %dl movb 713(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 714(%rax), %dl movb 714(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 715(%rax), %dl movb 715(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 716(%rax), %dl movb 716(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 717(%rax), %dl movb 717(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 718(%rax), %dl movb 718(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 719(%rax), %dl movb 719(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 720(%rax), %dl movb 720(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 721(%rax), %dl movb 721(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 722(%rax), %dl movb 722(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 723(%rax), %dl movb 723(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 724(%rax), %dl movb 724(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 725(%rax), %dl movb 725(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 726(%rax), %dl movb 726(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 727(%rax), %dl movb 727(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 728(%rax), %dl movb 728(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 729(%rax), %dl movb 729(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 730(%rax), %dl movb 730(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 731(%rax), %dl movb 731(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 732(%rax), %dl movb 732(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 733(%rax), %dl movb 733(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 734(%rax), %dl movb 734(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 735(%rax), %dl movb 735(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 736(%rax), %dl movb 736(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 737(%rax), %dl movb 737(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 738(%rax), %dl movb 738(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 739(%rax), %dl movb 739(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 740(%rax), %dl movb 740(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 741(%rax), %dl movb 741(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 742(%rax), %dl movb 742(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 743(%rax), %dl movb 743(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 744(%rax), %dl movb 744(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 745(%rax), %dl movb 745(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 746(%rax), %dl movb 746(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 747(%rax), %dl movb 747(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 748(%rax), %dl movb 748(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 749(%rax), %dl movb 749(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 750(%rax), %dl movb 750(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 751(%rax), %dl movb 751(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 752(%rax), %dl movb 752(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 753(%rax), %dl movb 753(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 754(%rax), %dl movb 754(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 755(%rax), %dl movb 755(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 756(%rax), %dl movb 756(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 757(%rax), %dl movb 757(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 758(%rax), %dl movb 758(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 759(%rax), %dl movb 759(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 760(%rax), %dl movb 760(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 761(%rax), %dl movb 761(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 762(%rax), %dl movb 762(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 763(%rax), %dl movb 763(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 764(%rax), %dl movb 764(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 765(%rax), %dl movb 765(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 766(%rax), %dl movb 766(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 767(%rax), %dl movb 767(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 768(%rax), %dl movb 768(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 769(%rax), %dl movb 769(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 770(%rax), %dl movb 770(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 771(%rax), %dl movb 771(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 772(%rax), %dl movb 772(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 773(%rax), %dl movb 773(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 774(%rax), %dl movb 774(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 775(%rax), %dl movb 775(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 776(%rax), %dl movb 776(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 777(%rax), %dl movb 777(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 778(%rax), %dl movb 778(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 779(%rax), %dl movb 779(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 780(%rax), %dl movb 780(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 781(%rax), %dl movb 781(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 782(%rax), %dl movb 782(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 783(%rax), %dl movb 783(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 784(%rax), %dl movb 784(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 785(%rax), %dl movb 785(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 786(%rax), %dl movb 786(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 787(%rax), %dl movb 787(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 788(%rax), %dl movb 788(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 789(%rax), %dl movb 789(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 790(%rax), %dl movb 790(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 791(%rax), %dl movb 791(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 792(%rax), %dl movb 792(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 793(%rax), %dl movb 793(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 794(%rax), %dl movb 794(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 795(%rax), %dl movb 795(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 796(%rax), %dl movb 796(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 797(%rax), %dl movb 797(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 798(%rax), %dl movb 798(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 799(%rax), %dl movb 799(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 800(%rax), %dl movb 800(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 801(%rax), %dl movb 801(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 802(%rax), %dl movb 802(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 803(%rax), %dl movb 803(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 804(%rax), %dl movb 804(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 805(%rax), %dl movb 805(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 806(%rax), %dl movb 806(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 807(%rax), %dl movb 807(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 808(%rax), %dl movb 808(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 809(%rax), %dl movb 809(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 810(%rax), %dl movb 810(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 811(%rax), %dl movb 811(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 812(%rax), %dl movb 812(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 813(%rax), %dl movb 813(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 814(%rax), %dl movb 814(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 815(%rax), %dl movb 815(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 816(%rax), %dl movb 816(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 817(%rax), %dl movb 817(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 818(%rax), %dl movb 818(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 819(%rax), %dl movb 819(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 820(%rax), %dl movb 820(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 821(%rax), %dl movb 821(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 822(%rax), %dl movb 822(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 823(%rax), %dl movb 823(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 824(%rax), %dl movb 824(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 825(%rax), %dl movb 825(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 826(%rax), %dl movb 826(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 827(%rax), %dl movb 827(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 828(%rax), %dl movb 828(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 829(%rax), %dl movb 829(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 830(%rax), %dl movb 830(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 831(%rax), %dl movb 831(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 832(%rax), %dl movb 832(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 833(%rax), %dl movb 833(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 834(%rax), %dl movb 834(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 835(%rax), %dl movb 835(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 836(%rax), %dl movb 836(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 837(%rax), %dl movb 837(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 838(%rax), %dl movb 838(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 839(%rax), %dl movb 839(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 840(%rax), %dl movb 840(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 841(%rax), %dl movb 841(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 842(%rax), %dl movb 842(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 843(%rax), %dl movb 843(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 844(%rax), %dl movb 844(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 845(%rax), %dl movb 845(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 846(%rax), %dl movb 846(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 847(%rax), %dl movb 847(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 848(%rax), %dl movb 848(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 849(%rax), %dl movb 849(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 850(%rax), %dl movb 850(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 851(%rax), %dl movb 851(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 852(%rax), %dl movb 852(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 853(%rax), %dl movb 853(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 854(%rax), %dl movb 854(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 855(%rax), %dl movb 855(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 856(%rax), %dl movb 856(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 857(%rax), %dl movb 857(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 858(%rax), %dl movb 858(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 859(%rax), %dl movb 859(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 860(%rax), %dl movb 860(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 861(%rax), %dl movb 861(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 862(%rax), %dl movb 862(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 863(%rax), %dl movb 863(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 864(%rax), %dl movb 864(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 865(%rax), %dl movb 865(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 866(%rax), %dl movb 866(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 867(%rax), %dl movb 867(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 868(%rax), %dl movb 868(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 869(%rax), %dl movb 869(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 870(%rax), %dl movb 870(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 871(%rax), %dl movb 871(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 872(%rax), %dl movb 872(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 873(%rax), %dl movb 873(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 874(%rax), %dl movb 874(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 875(%rax), %dl movb 875(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 876(%rax), %dl movb 876(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 877(%rax), %dl movb 877(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 878(%rax), %dl movb 878(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 879(%rax), %dl movb 879(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 880(%rax), %dl movb 880(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 881(%rax), %dl movb 881(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 882(%rax), %dl movb 882(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 883(%rax), %dl movb 883(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 884(%rax), %dl movb 884(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 885(%rax), %dl movb 885(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 886(%rax), %dl movb 886(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 887(%rax), %dl movb 887(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 888(%rax), %dl movb 888(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 889(%rax), %dl movb 889(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 890(%rax), %dl movb 890(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 891(%rax), %dl movb 891(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 892(%rax), %dl movb 892(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 893(%rax), %dl movb 893(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 894(%rax), %dl movb 894(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 895(%rax), %dl movb 895(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 896(%rax), %dl movb 896(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 897(%rax), %dl movb 897(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 898(%rax), %dl movb 898(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 899(%rax), %dl movb 899(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 900(%rax), %dl movb 900(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 901(%rax), %dl movb 901(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 902(%rax), %dl movb 902(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 903(%rax), %dl movb 903(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 904(%rax), %dl movb 904(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 905(%rax), %dl movb 905(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 906(%rax), %dl movb 906(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 907(%rax), %dl movb 907(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 908(%rax), %dl movb 908(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 909(%rax), %dl movb 909(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 910(%rax), %dl movb 910(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 911(%rax), %dl movb 911(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 912(%rax), %dl movb 912(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 913(%rax), %dl movb 913(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 914(%rax), %dl movb 914(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 915(%rax), %dl movb 915(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 916(%rax), %dl movb 916(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 917(%rax), %dl movb 917(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 918(%rax), %dl movb 918(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 919(%rax), %dl movb 919(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 920(%rax), %dl movb 920(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 921(%rax), %dl movb 921(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 922(%rax), %dl movb 922(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 923(%rax), %dl movb 923(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 924(%rax), %dl movb 924(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 925(%rax), %dl movb 925(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 926(%rax), %dl movb 926(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 927(%rax), %dl movb 927(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 928(%rax), %dl movb 928(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 929(%rax), %dl movb 929(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 930(%rax), %dl movb 930(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 931(%rax), %dl movb 931(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 932(%rax), %dl movb 932(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 933(%rax), %dl movb 933(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 934(%rax), %dl movb 934(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 935(%rax), %dl movb 935(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 936(%rax), %dl movb 936(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 937(%rax), %dl movb 937(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 938(%rax), %dl movb 938(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 939(%rax), %dl movb 939(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 940(%rax), %dl movb 940(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 941(%rax), %dl movb 941(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 942(%rax), %dl movb 942(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 943(%rax), %dl movb 943(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 944(%rax), %dl movb 944(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 945(%rax), %dl movb 945(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 946(%rax), %dl movb 946(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 947(%rax), %dl movb 947(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 948(%rax), %dl movb 948(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 949(%rax), %dl movb 949(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 950(%rax), %dl movb 950(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 951(%rax), %dl movb 951(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 952(%rax), %dl movb 952(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 953(%rax), %dl movb 953(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 954(%rax), %dl movb 954(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 955(%rax), %dl movb 955(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 956(%rax), %dl movb 956(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 957(%rax), %dl movb 957(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 958(%rax), %dl movb 958(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 959(%rax), %dl movb 959(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 960(%rax), %dl movb 960(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 961(%rax), %dl movb 961(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 962(%rax), %dl movb 962(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 963(%rax), %dl movb 963(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 964(%rax), %dl movb 964(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 965(%rax), %dl movb 965(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 966(%rax), %dl movb 966(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 967(%rax), %dl movb 967(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 968(%rax), %dl movb 968(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 969(%rax), %dl movb 969(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 970(%rax), %dl movb 970(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 971(%rax), %dl movb 971(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 972(%rax), %dl movb 972(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 973(%rax), %dl movb 973(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 974(%rax), %dl movb 974(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 975(%rax), %dl movb 975(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 976(%rax), %dl movb 976(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 977(%rax), %dl movb 977(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 978(%rax), %dl movb 978(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 979(%rax), %dl movb 979(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 980(%rax), %dl movb 980(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 981(%rax), %dl movb 981(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 982(%rax), %dl movb 982(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 983(%rax), %dl movb 983(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 984(%rax), %dl movb 984(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 985(%rax), %dl movb 985(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 986(%rax), %dl movb 986(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 987(%rax), %dl movb 987(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 988(%rax), %dl movb 988(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 989(%rax), %dl movb 989(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 990(%rax), %dl movb 990(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 991(%rax), %dl movb 991(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 992(%rax), %dl movb 992(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 993(%rax), %dl movb 993(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 994(%rax), %dl movb 994(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 995(%rax), %dl movb 995(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 996(%rax), %dl movb 996(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 997(%rax), %dl movb 997(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 998(%rax), %dl movb 998(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 999(%rax), %dl movb 999(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1000(%rax), %dl movb 1000(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1001(%rax), %dl movb 1001(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1002(%rax), %dl movb 1002(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1003(%rax), %dl movb 1003(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1004(%rax), %dl movb 1004(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1005(%rax), %dl movb 1005(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1006(%rax), %dl movb 1006(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1007(%rax), %dl movb 1007(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1008(%rax), %dl movb 1008(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1009(%rax), %dl movb 1009(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1010(%rax), %dl movb 1010(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1011(%rax), %dl movb 1011(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1012(%rax), %dl movb 1012(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1013(%rax), %dl movb 1013(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1014(%rax), %dl movb 1014(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1015(%rax), %dl movb 1015(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1016(%rax), %dl movb 1016(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1017(%rax), %dl movb 1017(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1018(%rax), %dl movb 1018(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1019(%rax), %dl movb 1019(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1020(%rax), %dl movb 1020(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1021(%rax), %dl movb 1021(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1022(%rax), %dl movb 1022(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1023(%rax), %dl movb 1023(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1024(%rax), %dl movb 1024(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1025(%rax), %dl movb 1025(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1026(%rax), %dl movb 1026(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1027(%rax), %dl movb 1027(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1028(%rax), %dl movb 1028(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1029(%rax), %dl movb 1029(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1030(%rax), %dl movb 1030(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1031(%rax), %dl movb 1031(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1032(%rax), %dl movb 1032(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1033(%rax), %dl movb 1033(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1034(%rax), %dl movb 1034(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1035(%rax), %dl movb 1035(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1036(%rax), %dl movb 1036(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1037(%rax), %dl movb 1037(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1038(%rax), %dl movb 1038(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1039(%rax), %dl movb 1039(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1040(%rax), %dl movb 1040(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1041(%rax), %dl movb 1041(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1042(%rax), %dl movb 1042(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1043(%rax), %dl movb 1043(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1044(%rax), %dl movb 1044(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1045(%rax), %dl movb 1045(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1046(%rax), %dl movb 1046(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1047(%rax), %dl movb 1047(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1048(%rax), %dl movb 1048(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1049(%rax), %dl movb 1049(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1050(%rax), %dl movb 1050(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1051(%rax), %dl movb 1051(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1052(%rax), %dl movb 1052(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1053(%rax), %dl movb 1053(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1054(%rax), %dl movb 1054(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1055(%rax), %dl movb 1055(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1056(%rax), %dl movb 1056(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1057(%rax), %dl movb 1057(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1058(%rax), %dl movb 1058(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1059(%rax), %dl movb 1059(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1060(%rax), %dl movb 1060(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1061(%rax), %dl movb 1061(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1062(%rax), %dl movb 1062(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1063(%rax), %dl movb 1063(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1064(%rax), %dl movb 1064(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1065(%rax), %dl movb 1065(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1066(%rax), %dl movb 1066(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1067(%rax), %dl movb 1067(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1068(%rax), %dl movb 1068(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1069(%rax), %dl movb 1069(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1070(%rax), %dl movb 1070(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1071(%rax), %dl movb 1071(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1072(%rax), %dl movb 1072(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1073(%rax), %dl movb 1073(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1074(%rax), %dl movb 1074(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1075(%rax), %dl movb 1075(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1076(%rax), %dl movb 1076(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1077(%rax), %dl movb 1077(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1078(%rax), %dl movb 1078(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1079(%rax), %dl movb 1079(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1080(%rax), %dl movb 1080(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1081(%rax), %dl movb 1081(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1082(%rax), %dl movb 1082(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1083(%rax), %dl movb 1083(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1084(%rax), %dl movb 1084(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1085(%rax), %dl movb 1085(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1086(%rax), %dl movb 1086(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1087(%rax), %al movb 1087(%rsi), %dl xorb %dl, %al movzbq %al, %rax orq %rax, %rcx negq %rcx shrq $63, %rcx movq 16(%rsp), %rax addq $64, %rax addq $2304, %rax leaq 144(%rsp), %rdx negq %rcx movb (%rdx), %dil movb (%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, (%rdx) movb 1(%rdx), %dil movb 1(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 1(%rdx) movb 2(%rdx), %dil movb 2(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 2(%rdx) movb 3(%rdx), %dil movb 3(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 3(%rdx) movb 4(%rdx), %dil movb 4(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 4(%rdx) movb 5(%rdx), %dil movb 5(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 5(%rdx) movb 6(%rdx), %dil movb 6(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 6(%rdx) movb 7(%rdx), %dil movb 7(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 7(%rdx) movb 8(%rdx), %dil movb 8(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 8(%rdx) movb 9(%rdx), %dil movb 9(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 9(%rdx) movb 10(%rdx), %dil movb 10(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 10(%rdx) movb 11(%rdx), %dil movb 11(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 11(%rdx) movb 12(%rdx), %dil movb 12(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 12(%rdx) movb 13(%rdx), %dil movb 13(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 13(%rdx) movb 14(%rdx), %dil movb 14(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 14(%rdx) movb 15(%rdx), %dil movb 15(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 15(%rdx) movb 16(%rdx), %dil movb 16(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 16(%rdx) movb 17(%rdx), %dil movb 17(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 17(%rdx) movb 18(%rdx), %dil movb 18(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 18(%rdx) movb 19(%rdx), %dil movb 19(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 19(%rdx) movb 20(%rdx), %dil movb 20(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 20(%rdx) movb 21(%rdx), %dil movb 21(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 21(%rdx) movb 22(%rdx), %dil movb 22(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 22(%rdx) movb 23(%rdx), %dil movb 23(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 23(%rdx) movb 24(%rdx), %dil movb 24(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 24(%rdx) movb 25(%rdx), %dil movb 25(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 25(%rdx) movb 26(%rdx), %dil movb 26(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 26(%rdx) movb 27(%rdx), %dil movb 27(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 27(%rdx) movb 28(%rdx), %dil movb 28(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 28(%rdx) movb 29(%rdx), %dil movb 29(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 29(%rdx) movb 30(%rdx), %dil movb 30(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 30(%rdx) movb 31(%rdx), %dil movb 31(%rax), %al xorb %dil, %al andb %cl, %al xorb %al, %dil movb %dil, 31(%rdx) movq $1088, %rax leaq 176(%rsp), %rcx leaq -232(%rsp), %rsp call L_sha3_256$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$2: leaq 232(%rsp), %rsp movq (%rsp), %rax movq $32, %rcx leaq 144(%rsp), %rdx leaq -216(%rsp), %rsp call L_shake256_64$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$1: leaq 216(%rsp), %rsp xorq %rax, %rax movq 14504(%rsp), %r15 movq 14512(%rsp), %r14 movq 14520(%rsp), %r13 movq 14528(%rsp), %r12 movq 14536(%rsp), %rbp movq 14544(%rsp), %rbx movq 14552(%rsp), %rsp ret _jade_kem_kyber_kyber768_amd64_ref_enc_derand: jade_kem_kyber_kyber768_amd64_ref_enc_derand: movq %rsp, %rax leaq -88(%rsp), %rsp andq $-8, %rsp movq %rax, 80(%rsp) movq %r15, 32(%rsp) movq %r14, 40(%rsp) movq %r13, 48(%rsp) movq %r12, 56(%rsp) movq %rbp, 64(%rsp) movq %rbx, 72(%rsp) movq %rsp, %rax movb (%rcx), %r8b movb %r8b, (%rax) movb 1(%rcx), %r8b movb %r8b, 1(%rax) movb 2(%rcx), %r8b movb %r8b, 2(%rax) movb 3(%rcx), %r8b movb %r8b, 3(%rax) movb 4(%rcx), %r8b movb %r8b, 4(%rax) movb 5(%rcx), %r8b movb %r8b, 5(%rax) movb 6(%rcx), %r8b movb %r8b, 6(%rax) movb 7(%rcx), %r8b movb %r8b, 7(%rax) movb 8(%rcx), %r8b movb %r8b, 8(%rax) movb 9(%rcx), %r8b movb %r8b, 9(%rax) movb 10(%rcx), %r8b movb %r8b, 10(%rax) movb 11(%rcx), %r8b movb %r8b, 11(%rax) movb 12(%rcx), %r8b movb %r8b, 12(%rax) movb 13(%rcx), %r8b movb %r8b, 13(%rax) movb 14(%rcx), %r8b movb %r8b, 14(%rax) movb 15(%rcx), %r8b movb %r8b, 15(%rax) movb 16(%rcx), %r8b movb %r8b, 16(%rax) movb 17(%rcx), %r8b movb %r8b, 17(%rax) movb 18(%rcx), %r8b movb %r8b, 18(%rax) movb 19(%rcx), %r8b movb %r8b, 19(%rax) movb 20(%rcx), %r8b movb %r8b, 20(%rax) movb 21(%rcx), %r8b movb %r8b, 21(%rax) movb 22(%rcx), %r8b movb %r8b, 22(%rax) movb 23(%rcx), %r8b movb %r8b, 23(%rax) movb 24(%rcx), %r8b movb %r8b, 24(%rax) movb 25(%rcx), %r8b movb %r8b, 25(%rax) movb 26(%rcx), %r8b movb %r8b, 26(%rax) movb 27(%rcx), %r8b movb %r8b, 27(%rax) movb 28(%rcx), %r8b movb %r8b, 28(%rax) movb 29(%rcx), %r8b movb %r8b, 29(%rax) movb 30(%rcx), %r8b movb %r8b, 30(%rax) movb 31(%rcx), %cl movb %cl, 31(%rax) movq %rsp, %rax leaq -13400(%rsp), %rsp call L_crypto_kem_enc_derand_jazz$1 Ljade_kem_kyber_kyber768_amd64_ref_enc_derand$1: leaq 13400(%rsp), %rsp xorq %rax, %rax movq 32(%rsp), %r15 movq 40(%rsp), %r14 movq 48(%rsp), %r13 movq 56(%rsp), %r12 movq 64(%rsp), %rbp movq 72(%rsp), %rbx movq 80(%rsp), %rsp ret _jade_kem_kyber_kyber768_amd64_ref_keypair_derand: jade_kem_kyber_kyber768_amd64_ref_keypair_derand: movq %rsp, %rax leaq -120(%rsp), %rsp andq $-8, %rsp movq %rax, 112(%rsp) movq %r15, 64(%rsp) movq %r14, 72(%rsp) movq %r13, 80(%rsp) movq %r12, 88(%rsp) movq %rbp, 96(%rsp) movq %rbx, 104(%rsp) movq %rsp, %rax movb (%rdx), %cl movb %cl, (%rax) movb 1(%rdx), %cl movb %cl, 1(%rax) movb 2(%rdx), %cl movb %cl, 2(%rax) movb 3(%rdx), %cl movb %cl, 3(%rax) movb 4(%rdx), %cl movb %cl, 4(%rax) movb 5(%rdx), %cl movb %cl, 5(%rax) movb 6(%rdx), %cl movb %cl, 6(%rax) movb 7(%rdx), %cl movb %cl, 7(%rax) movb 8(%rdx), %cl movb %cl, 8(%rax) movb 9(%rdx), %cl movb %cl, 9(%rax) movb 10(%rdx), %cl movb %cl, 10(%rax) movb 11(%rdx), %cl movb %cl, 11(%rax) movb 12(%rdx), %cl movb %cl, 12(%rax) movb 13(%rdx), %cl movb %cl, 13(%rax) movb 14(%rdx), %cl movb %cl, 14(%rax) movb 15(%rdx), %cl movb %cl, 15(%rax) movb 16(%rdx), %cl movb %cl, 16(%rax) movb 17(%rdx), %cl movb %cl, 17(%rax) movb 18(%rdx), %cl movb %cl, 18(%rax) movb 19(%rdx), %cl movb %cl, 19(%rax) movb 20(%rdx), %cl movb %cl, 20(%rax) movb 21(%rdx), %cl movb %cl, 21(%rax) movb 22(%rdx), %cl movb %cl, 22(%rax) movb 23(%rdx), %cl movb %cl, 23(%rax) movb 24(%rdx), %cl movb %cl, 24(%rax) movb 25(%rdx), %cl movb %cl, 25(%rax) movb 26(%rdx), %cl movb %cl, 26(%rax) movb 27(%rdx), %cl movb %cl, 27(%rax) movb 28(%rdx), %cl movb %cl, 28(%rax) movb 29(%rdx), %cl movb %cl, 29(%rax) movb 30(%rdx), %cl movb %cl, 30(%rax) movb 31(%rdx), %cl movb %cl, 31(%rax) movb 32(%rdx), %cl movb %cl, 32(%rax) movb 33(%rdx), %cl movb %cl, 33(%rax) movb 34(%rdx), %cl movb %cl, 34(%rax) movb 35(%rdx), %cl movb %cl, 35(%rax) movb 36(%rdx), %cl movb %cl, 36(%rax) movb 37(%rdx), %cl movb %cl, 37(%rax) movb 38(%rdx), %cl movb %cl, 38(%rax) movb 39(%rdx), %cl movb %cl, 39(%rax) movb 40(%rdx), %cl movb %cl, 40(%rax) movb 41(%rdx), %cl movb %cl, 41(%rax) movb 42(%rdx), %cl movb %cl, 42(%rax) movb 43(%rdx), %cl movb %cl, 43(%rax) movb 44(%rdx), %cl movb %cl, 44(%rax) movb 45(%rdx), %cl movb %cl, 45(%rax) movb 46(%rdx), %cl movb %cl, 46(%rax) movb 47(%rdx), %cl movb %cl, 47(%rax) movb 48(%rdx), %cl movb %cl, 48(%rax) movb 49(%rdx), %cl movb %cl, 49(%rax) movb 50(%rdx), %cl movb %cl, 50(%rax) movb 51(%rdx), %cl movb %cl, 51(%rax) movb 52(%rdx), %cl movb %cl, 52(%rax) movb 53(%rdx), %cl movb %cl, 53(%rax) movb 54(%rdx), %cl movb %cl, 54(%rax) movb 55(%rdx), %cl movb %cl, 55(%rax) movb 56(%rdx), %cl movb %cl, 56(%rax) movb 57(%rdx), %cl movb %cl, 57(%rax) movb 58(%rdx), %cl movb %cl, 58(%rax) movb 59(%rdx), %cl movb %cl, 59(%rax) movb 60(%rdx), %cl movb %cl, 60(%rax) movb 61(%rdx), %cl movb %cl, 61(%rax) movb 62(%rdx), %cl movb %cl, 62(%rax) movb 63(%rdx), %cl movb %cl, 63(%rax) movq %rsp, %rax leaq -10320(%rsp), %rsp call L_crypto_kem_keypair_derand_jazz$1 Ljade_kem_kyber_kyber768_amd64_ref_keypair_derand$1: leaq 10320(%rsp), %rsp xorq %rax, %rax movq 64(%rsp), %r15 movq 72(%rsp), %r14 movq 80(%rsp), %r13 movq 88(%rsp), %r12 movq 96(%rsp), %rbp movq 104(%rsp), %rbx movq 112(%rsp), %rsp ret L_crypto_kem_enc_derand_jazz$1: movq %rdx, 8(%rsp) movq %rdi, 16(%rsp) movq %rsi, 24(%rsp) movq (%rax), %rcx movq %rcx, 72(%rsp) movq 8(%rax), %rcx movq %rcx, 80(%rsp) movq 16(%rax), %rcx movq %rcx, 88(%rsp) movq 24(%rax), %rax movq %rax, 96(%rsp) leaq 136(%rsp), %rax leaq 72(%rsp), %rdx leaq -208(%rsp), %rsp call L_sha3_256_32$1 L_crypto_kem_enc_derand_jazz$208: leaq 208(%rsp), %rsp movq 8(%rsp), %rsi movq $1184, %rax leaq 168(%rsp), %rcx leaq -232(%rsp), %rsp call L_sha3_256$1 L_crypto_kem_enc_derand_jazz$207: leaq 232(%rsp), %rsp leaq 72(%rsp), %rax leaq 136(%rsp), %rdx leaq -208(%rsp), %rsp call L_sha3_512_64$1 L_crypto_kem_enc_derand_jazz$206: leaq 208(%rsp), %rsp movq 8(%rsp), %rdx leaq 136(%rsp), %rcx leaq 104(%rsp), %rax movq %rdx, %rsi leaq 2448(%rsp), %rdi call L_poly_frombytes$1 L_crypto_kem_enc_derand_jazz$205: addq $384, %rsi leaq 2960(%rsp), %rdi call L_poly_frombytes$1 L_crypto_kem_enc_derand_jazz$204: addq $384, %rsi leaq 3472(%rsp), %rdi call L_poly_frombytes$1 L_crypto_kem_enc_derand_jazz$203: movq $0, %rsi addq $1152, %rdx jmp L_crypto_kem_enc_derand_jazz$201 L_crypto_kem_enc_derand_jazz$202: movq (%rdx), %rdi movq %rdi, 40(%rsp,%rsi,8) addq $8, %rdx incq %rsi L_crypto_kem_enc_derand_jazz$201: cmpq $4, %rsi jb L_crypto_kem_enc_derand_jazz$202 leaq 912(%rsp), %rdx call L_i_poly_frommsg$1 L_crypto_kem_enc_derand_jazz$200: movq $1, %rcx movq %rcx, 8(%rsp) movb 40(%rsp), %cl movb %cl, 13200(%rsp) movb 41(%rsp), %cl movb %cl, 13201(%rsp) movb 42(%rsp), %cl movb %cl, 13202(%rsp) movb 43(%rsp), %cl movb %cl, 13203(%rsp) movb 44(%rsp), %cl movb %cl, 13204(%rsp) movb 45(%rsp), %cl movb %cl, 13205(%rsp) movb 46(%rsp), %cl movb %cl, 13206(%rsp) movb 47(%rsp), %cl movb %cl, 13207(%rsp) movb 48(%rsp), %cl movb %cl, 13208(%rsp) movb 49(%rsp), %cl movb %cl, 13209(%rsp) movb 50(%rsp), %cl movb %cl, 13210(%rsp) movb 51(%rsp), %cl movb %cl, 13211(%rsp) movb 52(%rsp), %cl movb %cl, 13212(%rsp) movb 53(%rsp), %cl movb %cl, 13213(%rsp) movb 54(%rsp), %cl movb %cl, 13214(%rsp) movb 55(%rsp), %cl movb %cl, 13215(%rsp) movb 56(%rsp), %cl movb %cl, 13216(%rsp) movb 57(%rsp), %cl movb %cl, 13217(%rsp) movb 58(%rsp), %cl movb %cl, 13218(%rsp) movb 59(%rsp), %cl movb %cl, 13219(%rsp) movb 60(%rsp), %cl movb %cl, 13220(%rsp) movb 61(%rsp), %cl movb %cl, 13221(%rsp) movb 62(%rsp), %cl movb %cl, 13222(%rsp) movb 63(%rsp), %cl movb %cl, 13223(%rsp) movb 64(%rsp), %cl movb %cl, 13224(%rsp) movb 65(%rsp), %cl movb %cl, 13225(%rsp) movb 66(%rsp), %cl movb %cl, 13226(%rsp) movb 67(%rsp), %cl movb %cl, 13227(%rsp) movb 68(%rsp), %cl movb %cl, 13228(%rsp) movb 69(%rsp), %cl movb %cl, 13229(%rsp) movb 70(%rsp), %cl movb %cl, 13230(%rsp) movb 71(%rsp), %cl movb %cl, 13231(%rsp) movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$198 movb $0, 13232(%rsp) movb $0, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$199 L_crypto_kem_enc_derand_jazz$198: movb $0, 13232(%rsp) movb $0, 13233(%rsp) L_crypto_kem_enc_derand_jazz$199: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$197: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$195 L_crypto_kem_enc_derand_jazz$196: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$195: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$196 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$187 L_crypto_kem_enc_derand_jazz$188: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$194: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$189: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$192 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$192 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$193: L_crypto_kem_enc_derand_jazz$192: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$190 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$190 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$191: L_crypto_kem_enc_derand_jazz$190: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$189 L_crypto_kem_enc_derand_jazz$187: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$188 movq $0, %rcx movq $0, %rdx jmp L_crypto_kem_enc_derand_jazz$185 L_crypto_kem_enc_derand_jazz$186: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$185: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$186 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$183 movb $0, 13232(%rsp) movb $1, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$184 L_crypto_kem_enc_derand_jazz$183: movb $1, 13232(%rsp) movb $0, 13233(%rsp) L_crypto_kem_enc_derand_jazz$184: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$182: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$180 L_crypto_kem_enc_derand_jazz$181: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$180: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$181 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$172 L_crypto_kem_enc_derand_jazz$173: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$179: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$174: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$177 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$177 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$178: L_crypto_kem_enc_derand_jazz$177: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$175 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$175 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$176: L_crypto_kem_enc_derand_jazz$175: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$174 L_crypto_kem_enc_derand_jazz$172: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$173 movq $0, %rcx movq $256, %rdx jmp L_crypto_kem_enc_derand_jazz$170 L_crypto_kem_enc_derand_jazz$171: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$170: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$171 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$168 movb $0, 13232(%rsp) movb $2, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$169 L_crypto_kem_enc_derand_jazz$168: movb $2, 13232(%rsp) movb $0, 13233(%rsp) L_crypto_kem_enc_derand_jazz$169: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$167: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$165 L_crypto_kem_enc_derand_jazz$166: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$165: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$166 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$157 L_crypto_kem_enc_derand_jazz$158: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$164: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$159: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$162 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$162 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$163: L_crypto_kem_enc_derand_jazz$162: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$160 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$160 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$161: L_crypto_kem_enc_derand_jazz$160: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$159 L_crypto_kem_enc_derand_jazz$157: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$158 movq $0, %rcx movq $512, %rdx jmp L_crypto_kem_enc_derand_jazz$155 L_crypto_kem_enc_derand_jazz$156: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$155: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$156 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$153 movb $1, 13232(%rsp) movb $0, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$154 L_crypto_kem_enc_derand_jazz$153: movb $0, 13232(%rsp) movb $1, 13233(%rsp) L_crypto_kem_enc_derand_jazz$154: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$152: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$150 L_crypto_kem_enc_derand_jazz$151: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$150: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$151 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$142 L_crypto_kem_enc_derand_jazz$143: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$149: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$144: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$147 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$147 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$148: L_crypto_kem_enc_derand_jazz$147: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$145 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$145 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$146: L_crypto_kem_enc_derand_jazz$145: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$144 L_crypto_kem_enc_derand_jazz$142: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$143 movq $0, %rcx movq $768, %rdx jmp L_crypto_kem_enc_derand_jazz$140 L_crypto_kem_enc_derand_jazz$141: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$140: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$141 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$138 movb $1, 13232(%rsp) movb $1, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$139 L_crypto_kem_enc_derand_jazz$138: movb $1, 13232(%rsp) movb $1, 13233(%rsp) L_crypto_kem_enc_derand_jazz$139: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$137: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$135 L_crypto_kem_enc_derand_jazz$136: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$135: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$136 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$127 L_crypto_kem_enc_derand_jazz$128: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$134: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$129: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$132 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$132 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$133: L_crypto_kem_enc_derand_jazz$132: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$130 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$130 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$131: L_crypto_kem_enc_derand_jazz$130: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$129 L_crypto_kem_enc_derand_jazz$127: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$128 movq $0, %rcx movq $1024, %rdx jmp L_crypto_kem_enc_derand_jazz$125 L_crypto_kem_enc_derand_jazz$126: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$125: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$126 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$123 movb $1, 13232(%rsp) movb $2, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$124 L_crypto_kem_enc_derand_jazz$123: movb $2, 13232(%rsp) movb $1, 13233(%rsp) L_crypto_kem_enc_derand_jazz$124: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$122: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$120 L_crypto_kem_enc_derand_jazz$121: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$120: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$121 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$112 L_crypto_kem_enc_derand_jazz$113: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$119: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$114: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$117 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$117 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$118: L_crypto_kem_enc_derand_jazz$117: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$115 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$115 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$116: L_crypto_kem_enc_derand_jazz$115: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$114 L_crypto_kem_enc_derand_jazz$112: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$113 movq $0, %rcx movq $1280, %rdx jmp L_crypto_kem_enc_derand_jazz$110 L_crypto_kem_enc_derand_jazz$111: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$110: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$111 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$108 movb $2, 13232(%rsp) movb $0, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$109 L_crypto_kem_enc_derand_jazz$108: movb $0, 13232(%rsp) movb $2, 13233(%rsp) L_crypto_kem_enc_derand_jazz$109: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$107: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$105 L_crypto_kem_enc_derand_jazz$106: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$105: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$106 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$97 L_crypto_kem_enc_derand_jazz$98: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$104: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$99: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$102 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$102 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$103: L_crypto_kem_enc_derand_jazz$102: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$100 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$100 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$101: L_crypto_kem_enc_derand_jazz$100: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$99 L_crypto_kem_enc_derand_jazz$97: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$98 movq $0, %rcx movq $1536, %rdx jmp L_crypto_kem_enc_derand_jazz$95 L_crypto_kem_enc_derand_jazz$96: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$95: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$96 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$93 movb $2, 13232(%rsp) movb $1, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$94 L_crypto_kem_enc_derand_jazz$93: movb $1, 13232(%rsp) movb $2, 13233(%rsp) L_crypto_kem_enc_derand_jazz$94: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$92: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$90 L_crypto_kem_enc_derand_jazz$91: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$90: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$91 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$82 L_crypto_kem_enc_derand_jazz$83: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$89: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$84: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$87 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$87 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$88: L_crypto_kem_enc_derand_jazz$87: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$85 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$85 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$86: L_crypto_kem_enc_derand_jazz$85: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$84 L_crypto_kem_enc_derand_jazz$82: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$83 movq $0, %rcx movq $1792, %rdx jmp L_crypto_kem_enc_derand_jazz$80 L_crypto_kem_enc_derand_jazz$81: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$80: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$81 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$78 movb $2, 13232(%rsp) movb $2, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$79 L_crypto_kem_enc_derand_jazz$78: movb $2, 13232(%rsp) movb $2, 13233(%rsp) L_crypto_kem_enc_derand_jazz$79: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$77: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$75 L_crypto_kem_enc_derand_jazz$76: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$75: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$76 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$67 L_crypto_kem_enc_derand_jazz$68: movq %rcx, 8(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$74: leaq 8(%rsp), %rsp movq 8(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$69: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$72 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$72 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$73: L_crypto_kem_enc_derand_jazz$72: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$70 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$70 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$71: L_crypto_kem_enc_derand_jazz$70: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$69 L_crypto_kem_enc_derand_jazz$67: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$68 movq $0, %rcx movq $2048, %rdx jmp L_crypto_kem_enc_derand_jazz$65 L_crypto_kem_enc_derand_jazz$66: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$65: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$66 movb $0, %cl leaq 3984(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$64: leaq 176(%rsp), %rsp movb $1, %cl leaq 4496(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$63: leaq 176(%rsp), %rsp movb $2, %cl leaq 5008(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$62: leaq 176(%rsp), %rsp movb $3, %cl leaq 5520(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$61: leaq 176(%rsp), %rsp movb $4, %cl leaq 6032(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$60: leaq 176(%rsp), %rsp movb $5, %cl leaq 6544(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$59: leaq 176(%rsp), %rsp movb $6, %cl leaq 400(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$58: leaq 176(%rsp), %rsp leaq 3984(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_enc_derand_jazz$57: leaq 4496(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_enc_derand_jazz$56: leaq 5008(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_enc_derand_jazz$55: leaq 7056(%rsp), %rdi leaq 8592(%rsp), %rcx leaq 3984(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$54: leaq 16(%rsp), %rsp leaq 1424(%rsp), %rdi leaq 9104(%rsp), %rcx leaq 4496(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$53: leaq 16(%rsp), %rsp leaq 7056(%rsp), %rcx leaq 1424(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$52: leaq 1424(%rsp), %rdi leaq 9616(%rsp), %rcx leaq 5008(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$51: leaq 16(%rsp), %rsp leaq 7056(%rsp), %rcx leaq 1424(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$50: leaq 7056(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$48 L_crypto_kem_enc_derand_jazz$49: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$48: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$49 leaq 7568(%rsp), %rdi leaq 10128(%rsp), %rcx leaq 3984(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$47: leaq 16(%rsp), %rsp leaq 1424(%rsp), %rdi leaq 10640(%rsp), %rcx leaq 4496(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$46: leaq 16(%rsp), %rsp leaq 7568(%rsp), %rcx leaq 1424(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$45: leaq 1424(%rsp), %rdi leaq 11152(%rsp), %rcx leaq 5008(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$44: leaq 16(%rsp), %rsp leaq 7568(%rsp), %rcx leaq 1424(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$43: leaq 7568(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$41 L_crypto_kem_enc_derand_jazz$42: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$41: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$42 leaq 8080(%rsp), %rdi leaq 11664(%rsp), %rcx leaq 3984(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$40: leaq 16(%rsp), %rsp leaq 1424(%rsp), %rdi leaq 12176(%rsp), %rcx leaq 4496(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$39: leaq 16(%rsp), %rsp leaq 8080(%rsp), %rcx leaq 1424(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$38: leaq 1424(%rsp), %rdi leaq 12688(%rsp), %rcx leaq 5008(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$37: leaq 16(%rsp), %rsp leaq 8080(%rsp), %rcx leaq 1424(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$36: leaq 8080(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$34 L_crypto_kem_enc_derand_jazz$35: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$34: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$35 leaq 1424(%rsp), %rdi leaq 2448(%rsp), %rcx leaq 3984(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$33: leaq 16(%rsp), %rsp leaq 1936(%rsp), %rdi leaq 2960(%rsp), %rcx leaq 4496(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$32: leaq 16(%rsp), %rsp leaq 1424(%rsp), %rcx leaq 1936(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$31: leaq 1936(%rsp), %rdi leaq 3472(%rsp), %rcx leaq 5008(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$30: leaq 16(%rsp), %rsp leaq 1424(%rsp), %rcx leaq 1936(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$29: leaq 1424(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$27 L_crypto_kem_enc_derand_jazz$28: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$27: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$28 leaq 7056(%rsp), %rcx call L_poly_invntt$1 L_crypto_kem_enc_derand_jazz$26: leaq 7568(%rsp), %rcx call L_poly_invntt$1 L_crypto_kem_enc_derand_jazz$25: leaq 8080(%rsp), %rcx call L_poly_invntt$1 L_crypto_kem_enc_derand_jazz$24: leaq 1424(%rsp), %rcx call L_poly_invntt$1 L_crypto_kem_enc_derand_jazz$23: leaq 7056(%rsp), %rcx leaq 5520(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$22: leaq 7568(%rsp), %rcx leaq 6032(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$21: leaq 8080(%rsp), %rcx leaq 6544(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$20: leaq 1424(%rsp), %rcx leaq 400(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$19: leaq 1424(%rsp), %rcx leaq 912(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$18: leaq 7056(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$16 L_crypto_kem_enc_derand_jazz$17: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$16: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$17 leaq 7568(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$14 L_crypto_kem_enc_derand_jazz$15: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$14: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$15 leaq 8080(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$12 L_crypto_kem_enc_derand_jazz$13: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$12: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$13 leaq 1424(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$10 L_crypto_kem_enc_derand_jazz$11: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$10: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$11 movq 16(%rsp), %rax movq $0, %rdx movq $0, %rsi leaq 7056(%rsp), %rcx call L_poly_csubq$1 L_crypto_kem_enc_derand_jazz$9: leaq 7568(%rsp), %rcx call L_poly_csubq$1 L_crypto_kem_enc_derand_jazz$8: leaq 8080(%rsp), %rcx call L_poly_csubq$1 L_crypto_kem_enc_derand_jazz$7: jmp L_crypto_kem_enc_derand_jazz$5 L_crypto_kem_enc_derand_jazz$6: movzwq 7056(%rsp,%rdx,2), %rcx incq %rdx shlq $10, %rcx addq $1665, %rcx imulq $1290167, %rcx, %rcx shrq $32, %rcx andq $1023, %rcx movzwq 7056(%rsp,%rdx,2), %rdi incq %rdx shlq $10, %rdi addq $1665, %rdi imulq $1290167, %rdi, %rdi shrq $32, %rdi andq $1023, %rdi movzwq 7056(%rsp,%rdx,2), %r8 incq %rdx shlq $10, %r8 addq $1665, %r8 imulq $1290167, %r8, %r8 shrq $32, %r8 andq $1023, %r8 movzwq 7056(%rsp,%rdx,2), %r9 incq %rdx shlq $10, %r9 addq $1665, %r9 imulq $1290167, %r9, %r9 shrq $32, %r9 andq $1023, %r9 movw %cx, %r10w andw $255, %r10w movb %r10b, (%rax,%rsi) incq %rsi shrw $8, %cx movw %di, %r10w shlw $2, %r10w orw %cx, %r10w movb %r10b, (%rax,%rsi) incq %rsi shrw $6, %di movw %r8w, %cx shlw $4, %cx orw %di, %cx movb %cl, (%rax,%rsi) incq %rsi shrw $4, %r8w movw %r9w, %cx shlw $6, %cx orw %r8w, %cx movb %cl, (%rax,%rsi) incq %rsi shrq $2, %r9 movb %r9b, (%rax,%rsi) incq %rsi L_crypto_kem_enc_derand_jazz$5: cmpq $768, %rdx jb L_crypto_kem_enc_derand_jazz$6 addq $960, %rax leaq 1424(%rsp), %rcx call L_poly_compress$1 L_crypto_kem_enc_derand_jazz$4: movq 16(%rsp), %rsi movq $1088, %rax leaq 104(%rsp), %rcx leaq -232(%rsp), %rsp call L_sha3_256$1 L_crypto_kem_enc_derand_jazz$3: leaq 232(%rsp), %rsp movq 24(%rsp), %rax movq $32, %rcx leaq 72(%rsp), %rdx leaq -216(%rsp), %rsp call L_shake256_64$1 L_crypto_kem_enc_derand_jazz$2: leaq 216(%rsp), %rsp ret L_crypto_kem_keypair_derand_jazz$1: movq %rax, 8(%rsp) movq %rdi, 16(%rsp) movq %rsi, 24(%rsp) movq %rdi, 32(%rsp) movq %rsi, 40(%rsp) movq (%rax), %rcx movq %rcx, 64(%rsp) movq 8(%rax), %rcx movq %rcx, 72(%rsp) movq 16(%rax), %rcx movq %rcx, 80(%rsp) movq 24(%rax), %rax movq %rax, 88(%rsp) leaq 128(%rsp), %rcx leaq 64(%rsp), %rax leaq -208(%rsp), %rsp call L_sha3_512_32$1 L_crypto_kem_keypair_derand_jazz$189: leaq 208(%rsp), %rsp movq 128(%rsp), %rax movq %rax, 96(%rsp) movq 160(%rsp), %rax movq %rax, 64(%rsp) movq 136(%rsp), %rax movq %rax, 104(%rsp) movq 168(%rsp), %rax movq %rax, 72(%rsp) movq 144(%rsp), %rax movq %rax, 112(%rsp) movq 176(%rsp), %rax movq %rax, 80(%rsp) movq 152(%rsp), %rax movq %rax, 120(%rsp) movq 184(%rsp), %rax movq %rax, 88(%rsp) movq $0, %rax movq %rax, 48(%rsp) movb 96(%rsp), %al movb %al, 10120(%rsp) movb 97(%rsp), %al movb %al, 10121(%rsp) movb 98(%rsp), %al movb %al, 10122(%rsp) movb 99(%rsp), %al movb %al, 10123(%rsp) movb 100(%rsp), %al movb %al, 10124(%rsp) movb 101(%rsp), %al movb %al, 10125(%rsp) movb 102(%rsp), %al movb %al, 10126(%rsp) movb 103(%rsp), %al movb %al, 10127(%rsp) movb 104(%rsp), %al movb %al, 10128(%rsp) movb 105(%rsp), %al movb %al, 10129(%rsp) movb 106(%rsp), %al movb %al, 10130(%rsp) movb 107(%rsp), %al movb %al, 10131(%rsp) movb 108(%rsp), %al movb %al, 10132(%rsp) movb 109(%rsp), %al movb %al, 10133(%rsp) movb 110(%rsp), %al movb %al, 10134(%rsp) movb 111(%rsp), %al movb %al, 10135(%rsp) movb 112(%rsp), %al movb %al, 10136(%rsp) movb 113(%rsp), %al movb %al, 10137(%rsp) movb 114(%rsp), %al movb %al, 10138(%rsp) movb 115(%rsp), %al movb %al, 10139(%rsp) movb 116(%rsp), %al movb %al, 10140(%rsp) movb 117(%rsp), %al movb %al, 10141(%rsp) movb 118(%rsp), %al movb %al, 10142(%rsp) movb 119(%rsp), %al movb %al, 10143(%rsp) movb 120(%rsp), %al movb %al, 10144(%rsp) movb 121(%rsp), %al movb %al, 10145(%rsp) movb 122(%rsp), %al movb %al, 10146(%rsp) movb 123(%rsp), %al movb %al, 10147(%rsp) movb 124(%rsp), %al movb %al, 10148(%rsp) movb 125(%rsp), %al movb %al, 10149(%rsp) movb 126(%rsp), %al movb %al, 10150(%rsp) movb 127(%rsp), %al movb %al, 10151(%rsp) movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$187 movb $0, 10152(%rsp) movb $0, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$188 L_crypto_kem_keypair_derand_jazz$187: movb $0, 10152(%rsp) movb $0, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$188: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$186: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$184 L_crypto_kem_keypair_derand_jazz$185: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$184: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$185 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$176 L_crypto_kem_keypair_derand_jazz$177: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$183: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$178: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$181 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$181 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$182: L_crypto_kem_keypair_derand_jazz$181: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$179 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$179 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$180: L_crypto_kem_keypair_derand_jazz$179: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$178 L_crypto_kem_keypair_derand_jazz$176: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$177 movq $0, %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$174 L_crypto_kem_keypair_derand_jazz$175: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$174: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$175 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$172 movb $0, 10152(%rsp) movb $1, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$173 L_crypto_kem_keypair_derand_jazz$172: movb $1, 10152(%rsp) movb $0, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$173: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$171: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$169 L_crypto_kem_keypair_derand_jazz$170: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$169: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$170 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$161 L_crypto_kem_keypair_derand_jazz$162: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$168: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$163: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$166 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$166 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$167: L_crypto_kem_keypair_derand_jazz$166: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$164 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$164 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$165: L_crypto_kem_keypair_derand_jazz$164: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$163 L_crypto_kem_keypair_derand_jazz$161: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$162 movq $0, %rax movq $256, %rcx jmp L_crypto_kem_keypair_derand_jazz$159 L_crypto_kem_keypair_derand_jazz$160: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$159: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$160 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$157 movb $0, 10152(%rsp) movb $2, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$158 L_crypto_kem_keypair_derand_jazz$157: movb $2, 10152(%rsp) movb $0, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$158: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$156: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$154 L_crypto_kem_keypair_derand_jazz$155: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$154: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$155 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$146 L_crypto_kem_keypair_derand_jazz$147: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$153: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$148: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$151 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$151 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$152: L_crypto_kem_keypair_derand_jazz$151: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$149 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$149 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$150: L_crypto_kem_keypair_derand_jazz$149: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$148 L_crypto_kem_keypair_derand_jazz$146: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$147 movq $0, %rax movq $512, %rcx jmp L_crypto_kem_keypair_derand_jazz$144 L_crypto_kem_keypair_derand_jazz$145: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$144: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$145 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$142 movb $1, 10152(%rsp) movb $0, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$143 L_crypto_kem_keypair_derand_jazz$142: movb $0, 10152(%rsp) movb $1, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$143: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$141: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$139 L_crypto_kem_keypair_derand_jazz$140: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$139: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$140 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$131 L_crypto_kem_keypair_derand_jazz$132: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$138: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$133: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$136 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$136 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$137: L_crypto_kem_keypair_derand_jazz$136: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$134 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$134 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$135: L_crypto_kem_keypair_derand_jazz$134: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$133 L_crypto_kem_keypair_derand_jazz$131: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$132 movq $0, %rax movq $768, %rcx jmp L_crypto_kem_keypair_derand_jazz$129 L_crypto_kem_keypair_derand_jazz$130: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$129: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$130 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$127 movb $1, 10152(%rsp) movb $1, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$128 L_crypto_kem_keypair_derand_jazz$127: movb $1, 10152(%rsp) movb $1, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$128: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$126: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$124 L_crypto_kem_keypair_derand_jazz$125: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$124: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$125 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$116 L_crypto_kem_keypair_derand_jazz$117: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$123: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$118: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$121 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$121 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$122: L_crypto_kem_keypair_derand_jazz$121: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$119 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$119 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$120: L_crypto_kem_keypair_derand_jazz$119: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$118 L_crypto_kem_keypair_derand_jazz$116: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$117 movq $0, %rax movq $1024, %rcx jmp L_crypto_kem_keypair_derand_jazz$114 L_crypto_kem_keypair_derand_jazz$115: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$114: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$115 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$112 movb $1, 10152(%rsp) movb $2, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$113 L_crypto_kem_keypair_derand_jazz$112: movb $2, 10152(%rsp) movb $1, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$113: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$111: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$109 L_crypto_kem_keypair_derand_jazz$110: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$109: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$110 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$101 L_crypto_kem_keypair_derand_jazz$102: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$108: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$103: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$106 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$106 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$107: L_crypto_kem_keypair_derand_jazz$106: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$104 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$104 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$105: L_crypto_kem_keypair_derand_jazz$104: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$103 L_crypto_kem_keypair_derand_jazz$101: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$102 movq $0, %rax movq $1280, %rcx jmp L_crypto_kem_keypair_derand_jazz$99 L_crypto_kem_keypair_derand_jazz$100: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$99: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$100 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$97 movb $2, 10152(%rsp) movb $0, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$98 L_crypto_kem_keypair_derand_jazz$97: movb $0, 10152(%rsp) movb $2, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$98: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$96: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$94 L_crypto_kem_keypair_derand_jazz$95: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$94: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$95 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$86 L_crypto_kem_keypair_derand_jazz$87: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$93: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$88: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$91 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$91 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$92: L_crypto_kem_keypair_derand_jazz$91: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$89 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$89 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$90: L_crypto_kem_keypair_derand_jazz$89: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$88 L_crypto_kem_keypair_derand_jazz$86: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$87 movq $0, %rax movq $1536, %rcx jmp L_crypto_kem_keypair_derand_jazz$84 L_crypto_kem_keypair_derand_jazz$85: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$84: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$85 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$82 movb $2, 10152(%rsp) movb $1, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$83 L_crypto_kem_keypair_derand_jazz$82: movb $1, 10152(%rsp) movb $2, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$83: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$81: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$79 L_crypto_kem_keypair_derand_jazz$80: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$79: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$80 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$71 L_crypto_kem_keypair_derand_jazz$72: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$78: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$73: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$76 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$76 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$77: L_crypto_kem_keypair_derand_jazz$76: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$74 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$74 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$75: L_crypto_kem_keypair_derand_jazz$74: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$73 L_crypto_kem_keypair_derand_jazz$71: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$72 movq $0, %rax movq $1792, %rcx jmp L_crypto_kem_keypair_derand_jazz$69 L_crypto_kem_keypair_derand_jazz$70: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$69: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$70 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$67 movb $2, 10152(%rsp) movb $2, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$68 L_crypto_kem_keypair_derand_jazz$67: movb $2, 10152(%rsp) movb $2, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$68: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$66: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$64 L_crypto_kem_keypair_derand_jazz$65: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$64: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$65 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$56 L_crypto_kem_keypair_derand_jazz$57: movq %rax, 48(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$63: leaq 8(%rsp), %rsp movq 48(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$58: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$61 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$61 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$62: L_crypto_kem_keypair_derand_jazz$61: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$59 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$59 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$60: L_crypto_kem_keypair_derand_jazz$59: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$58 L_crypto_kem_keypair_derand_jazz$56: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$57 movq $0, %rax movq $2048, %rcx jmp L_crypto_kem_keypair_derand_jazz$54 L_crypto_kem_keypair_derand_jazz$55: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$54: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$55 movb $0, %cl leaq 904(%rsp), %rdx leaq 64(%rsp), %rax leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_keypair_derand_jazz$53: leaq 176(%rsp), %rsp movb $1, %cl leaq 1416(%rsp), %rdx leaq 64(%rsp), %rax leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_keypair_derand_jazz$52: leaq 176(%rsp), %rsp movb $2, %cl leaq 1928(%rsp), %rdx leaq 64(%rsp), %rax leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_keypair_derand_jazz$51: leaq 176(%rsp), %rsp movb $3, %cl leaq 2440(%rsp), %rdx leaq 64(%rsp), %rax leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_keypair_derand_jazz$50: leaq 176(%rsp), %rsp movb $4, %cl leaq 2952(%rsp), %rdx leaq 64(%rsp), %rax leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_keypair_derand_jazz$49: leaq 176(%rsp), %rsp movb $5, %cl leaq 3464(%rsp), %rdx leaq 64(%rsp), %rax leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_keypair_derand_jazz$48: leaq 176(%rsp), %rsp leaq 904(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_keypair_derand_jazz$47: leaq 1416(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_keypair_derand_jazz$46: leaq 1928(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_keypair_derand_jazz$45: leaq 2440(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_keypair_derand_jazz$44: leaq 2952(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_keypair_derand_jazz$43: leaq 3464(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_keypair_derand_jazz$42: leaq 3976(%rsp), %rdi leaq 5512(%rsp), %rcx leaq 904(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$41: leaq 16(%rsp), %rsp leaq 392(%rsp), %rdi leaq 6024(%rsp), %rcx leaq 1416(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$40: leaq 16(%rsp), %rsp leaq 3976(%rsp), %rcx leaq 392(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$39: leaq 392(%rsp), %rdi leaq 6536(%rsp), %rcx leaq 1928(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$38: leaq 16(%rsp), %rsp leaq 3976(%rsp), %rcx leaq 392(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$37: leaq 3976(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$35 L_crypto_kem_keypair_derand_jazz$36: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_keypair_derand_jazz$35: cmpq $256, %rcx jb L_crypto_kem_keypair_derand_jazz$36 leaq 3976(%rsp), %rax call L_poly_frommont$1 L_crypto_kem_keypair_derand_jazz$34: leaq 4488(%rsp), %rdi leaq 7048(%rsp), %rcx leaq 904(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$33: leaq 16(%rsp), %rsp leaq 392(%rsp), %rdi leaq 7560(%rsp), %rcx leaq 1416(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$32: leaq 16(%rsp), %rsp leaq 4488(%rsp), %rcx leaq 392(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$31: leaq 392(%rsp), %rdi leaq 8072(%rsp), %rcx leaq 1928(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$30: leaq 16(%rsp), %rsp leaq 4488(%rsp), %rcx leaq 392(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$29: leaq 4488(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$27 L_crypto_kem_keypair_derand_jazz$28: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_keypair_derand_jazz$27: cmpq $256, %rcx jb L_crypto_kem_keypair_derand_jazz$28 leaq 4488(%rsp), %rax call L_poly_frommont$1 L_crypto_kem_keypair_derand_jazz$26: leaq 5000(%rsp), %rdi leaq 8584(%rsp), %rcx leaq 904(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$25: leaq 16(%rsp), %rsp leaq 392(%rsp), %rdi leaq 9096(%rsp), %rcx leaq 1416(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$24: leaq 16(%rsp), %rsp leaq 5000(%rsp), %rcx leaq 392(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$23: leaq 392(%rsp), %rdi leaq 9608(%rsp), %rcx leaq 1928(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$22: leaq 16(%rsp), %rsp leaq 5000(%rsp), %rcx leaq 392(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$21: leaq 5000(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$19 L_crypto_kem_keypair_derand_jazz$20: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_keypair_derand_jazz$19: cmpq $256, %rcx jb L_crypto_kem_keypair_derand_jazz$20 leaq 5000(%rsp), %rax call L_poly_frommont$1 L_crypto_kem_keypair_derand_jazz$18: leaq 3976(%rsp), %rcx leaq 2440(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$17: leaq 4488(%rsp), %rcx leaq 2952(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$16: leaq 5000(%rsp), %rcx leaq 3464(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$15: leaq 3976(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$13 L_crypto_kem_keypair_derand_jazz$14: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_keypair_derand_jazz$13: cmpq $256, %rcx jb L_crypto_kem_keypair_derand_jazz$14 leaq 4488(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$11 L_crypto_kem_keypair_derand_jazz$12: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_keypair_derand_jazz$11: cmpq $256, %rcx jb L_crypto_kem_keypair_derand_jazz$12 leaq 5000(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$9 L_crypto_kem_keypair_derand_jazz$10: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_keypair_derand_jazz$9: cmpq $256, %rcx jb L_crypto_kem_keypair_derand_jazz$10 movq 32(%rsp), %rax movq 40(%rsp), %rcx movq %rcx, %rdx leaq 904(%rsp), %rcx call L_poly_tobytes$1 L_crypto_kem_keypair_derand_jazz$8: addq $384, %rdx leaq 1416(%rsp), %rcx call L_poly_tobytes$1 L_crypto_kem_keypair_derand_jazz$7: addq $384, %rdx leaq 1928(%rsp), %rcx call L_poly_tobytes$1 L_crypto_kem_keypair_derand_jazz$6: movq %rax, %rdx leaq 3976(%rsp), %rcx call L_poly_tobytes$1 L_crypto_kem_keypair_derand_jazz$5: addq $384, %rdx leaq 4488(%rsp), %rcx call L_poly_tobytes$1 L_crypto_kem_keypair_derand_jazz$4: addq $384, %rdx leaq 5000(%rsp), %rcx call L_poly_tobytes$1 L_crypto_kem_keypair_derand_jazz$3: addq $1152, %rax movq 96(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 104(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 112(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 120(%rsp), %rcx movq %rcx, (%rax) movq 24(%rsp), %rax addq $1152, %rax movq 16(%rsp), %rcx movq (%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 8(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 16(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 24(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 32(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 40(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 48(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 56(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 64(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 72(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 80(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 88(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 96(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 104(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 112(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 120(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 128(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 136(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 144(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 152(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 160(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 168(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 176(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 184(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 192(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 200(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 208(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 216(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 224(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 232(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 240(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 248(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 256(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 264(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 272(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 280(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 288(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 296(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 304(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 312(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 320(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 328(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 336(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 344(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 352(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 360(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 368(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 376(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 384(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 392(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 400(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 408(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 416(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 424(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 432(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 440(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 448(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 456(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 464(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 472(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 480(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 488(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 496(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 504(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 512(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 520(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 528(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 536(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 544(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 552(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 560(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 568(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 576(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 584(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 592(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 600(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 608(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 616(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 624(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 632(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 640(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 648(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 656(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 664(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 672(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 680(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 688(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 696(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 704(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 712(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 720(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 728(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 736(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 744(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 752(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 760(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 768(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 776(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 784(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 792(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 800(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 808(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 816(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 824(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 832(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 840(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 848(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 856(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 864(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 872(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 880(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 888(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 896(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 904(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 912(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 920(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 928(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 936(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 944(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 952(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 960(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 968(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 976(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 984(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 992(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1000(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1008(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1016(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1024(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1032(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1040(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1048(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1056(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1064(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1072(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1080(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1088(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1096(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1104(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1112(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1120(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1128(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1136(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1144(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1152(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1160(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1168(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1176(%rcx), %rcx movq %rcx, (%rax) addq $8, %rax movq %rax, 24(%rsp) movq 16(%rsp), %rsi movq $1184, %rax leaq 96(%rsp), %rcx leaq -232(%rsp), %rsp call L_sha3_256$1 L_crypto_kem_keypair_derand_jazz$2: leaq 232(%rsp), %rsp movq 24(%rsp), %rax movq 96(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 104(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 112(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 120(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 8(%rsp), %rcx leaq 32(%rcx), %rcx movq (%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 8(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 16(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 24(%rcx), %rcx movq %rcx, (%rax) ret L_i_poly_tomsg$1: call L_poly_csubq$1 L_i_poly_tomsg$2: movb $0, %sil movw (%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 2(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 4(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 6(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 8(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 10(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 12(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 14(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, (%rax) movb $0, %sil movw 16(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 18(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 20(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 22(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 24(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 26(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 28(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 30(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 1(%rax) movb $0, %sil movw 32(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 34(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 36(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 38(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 40(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 42(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 44(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 46(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 2(%rax) movb $0, %sil movw 48(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 50(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 52(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 54(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 56(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 58(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 60(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 62(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 3(%rax) movb $0, %sil movw 64(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 66(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 68(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 70(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 72(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 74(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 76(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 78(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 4(%rax) movb $0, %sil movw 80(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 82(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 84(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 86(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 88(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 90(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 92(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 94(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 5(%rax) movb $0, %sil movw 96(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 98(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 100(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 102(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 104(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 106(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 108(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 110(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 6(%rax) movb $0, %sil movw 112(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 114(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 116(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 118(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 120(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 122(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 124(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 126(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 7(%rax) movb $0, %sil movw 128(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 130(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 132(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 134(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 136(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 138(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 140(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 142(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 8(%rax) movb $0, %sil movw 144(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 146(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 148(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 150(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 152(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 154(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 156(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 158(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 9(%rax) movb $0, %sil movw 160(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 162(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 164(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 166(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 168(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 170(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 172(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 174(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 10(%rax) movb $0, %sil movw 176(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 178(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 180(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 182(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 184(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 186(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 188(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 190(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 11(%rax) movb $0, %sil movw 192(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 194(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 196(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 198(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 200(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 202(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 204(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 206(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 12(%rax) movb $0, %sil movw 208(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 210(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 212(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 214(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 216(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 218(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 220(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 222(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 13(%rax) movb $0, %sil movw 224(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 226(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 228(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 230(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 232(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 234(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 236(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 238(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 14(%rax) movb $0, %sil movw 240(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 242(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 244(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 246(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 248(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 250(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 252(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 254(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 15(%rax) movb $0, %sil movw 256(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 258(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 260(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 262(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 264(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 266(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 268(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 270(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 16(%rax) movb $0, %sil movw 272(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 274(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 276(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 278(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 280(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 282(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 284(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 286(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 17(%rax) movb $0, %sil movw 288(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 290(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 292(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 294(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 296(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 298(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 300(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 302(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 18(%rax) movb $0, %sil movw 304(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 306(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 308(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 310(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 312(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 314(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 316(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 318(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 19(%rax) movb $0, %sil movw 320(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 322(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 324(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 326(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 328(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 330(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 332(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 334(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 20(%rax) movb $0, %sil movw 336(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 338(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 340(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 342(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 344(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 346(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 348(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 350(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 21(%rax) movb $0, %sil movw 352(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 354(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 356(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 358(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 360(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 362(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 364(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 366(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 22(%rax) movb $0, %sil movw 368(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 370(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 372(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 374(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 376(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 378(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 380(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 382(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 23(%rax) movb $0, %sil movw 384(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 386(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 388(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 390(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 392(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 394(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 396(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 398(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 24(%rax) movb $0, %sil movw 400(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 402(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 404(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 406(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 408(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 410(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 412(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 414(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 25(%rax) movb $0, %sil movw 416(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 418(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 420(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 422(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 424(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 426(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 428(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 430(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 26(%rax) movb $0, %sil movw 432(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 434(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 436(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 438(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 440(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 442(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 444(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 446(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 27(%rax) movb $0, %sil movw 448(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 450(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 452(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 454(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 456(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 458(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 460(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 462(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 28(%rax) movb $0, %sil movw 464(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 466(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 468(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 470(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 472(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 474(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 476(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 478(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 29(%rax) movb $0, %sil movw 480(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 482(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 484(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 486(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 488(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 490(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 492(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 494(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 30(%rax) movb $0, %sil movw 496(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 498(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 500(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 502(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 504(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 506(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 508(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 510(%rcx), %cx movzwl %cx, %ecx shll $1, %ecx addl $1665, %ecx imull $80635, %ecx, %ecx shrl $28, %ecx andl $1, %ecx shll $7, %ecx orb %cl, %sil movb %sil, 31(%rax) ret L_poly_tobytes$1: call L_poly_csubq$1 L_poly_tobytes$4: movq $0, %rsi movq $0, %rdi jmp L_poly_tobytes$2 L_poly_tobytes$3: movw (%rcx,%rsi,2), %r8w incq %rsi movw (%rcx,%rsi,2), %r9w incq %rsi movw %r8w, %r10w andw $255, %r10w movb %r10b, (%rdx,%rdi) incq %rdi shrw $8, %r8w movw %r9w, %r10w andw $15, %r10w shlw $4, %r10w orw %r8w, %r10w movb %r10b, (%rdx,%rdi) incq %rdi shrw $4, %r9w movb %r9b, (%rdx,%rdi) incq %rdi L_poly_tobytes$2: cmpq $256, %rsi jb L_poly_tobytes$3 ret L_poly_sub$1: movq $0, %r8 jmp L_poly_sub$2 L_poly_sub$3: movw (%rsi,%r8,2), %r9w movw (%rdi,%r8,2), %r10w subw %r10w, %r9w movw %r9w, (%rcx,%r8,2) incq %r8 L_poly_sub$2: cmpq $256, %r8 jb L_poly_sub$3 ret L_poly_ntt$1: leaq glob_data + 448(%rip), %rsi movq $0, %rdi movq $128, %r8 jmp L_poly_ntt$4 L_poly_ntt$5: movq $0, %r11 jmp L_poly_ntt$6 L_poly_ntt$7: incq %rdi movw (%rsi,%rdi,2), %r9w movq %r11, %r10 leaq (%r11,%r8), %r11 jmp L_poly_ntt$8 L_poly_ntt$9: leaq (%r10,%r8), %rbx movw (%rcx,%rbx,2), %bp movswl %bp, %ebp movswl %r9w, %r12d imull %r12d, %ebp imull $62209, %ebp, %r12d shll $16, %r12d sarl $16, %r12d imull $3329, %r12d, %r12d subl %r12d, %ebp sarl $16, %ebp movw (%rcx,%r10,2), %r12w movw %r12w, %r13w subw %bp, %r13w movw %r13w, (%rcx,%rbx,2) addw %r12w, %bp movw %bp, (%rcx,%r10,2) incq %r10 L_poly_ntt$8: cmpq %r11, %r10 jb L_poly_ntt$9 leaq (%r10,%r8), %r11 L_poly_ntt$6: cmpq $256, %r11 jb L_poly_ntt$7 shrq $1, %r8 L_poly_ntt$4: cmpq $2, %r8 jnb L_poly_ntt$5 movq $0, %rsi jmp L_poly_ntt$2 L_poly_ntt$3: movw (%rcx,%rsi,2), %di movswl %di, %r8d imull $20159, %r8d, %r8d sarl $26, %r8d imull $3329, %r8d, %r8d subw %r8w, %di movw %di, (%rcx,%rsi,2) incq %rsi L_poly_ntt$2: cmpq $256, %rsi jb L_poly_ntt$3 ret L_poly_invntt$1: leaq glob_data + 192(%rip), %rsi movq $0, %rdi movq $2, %r8 jmp L_poly_invntt$4 L_poly_invntt$5: movq $0, %r11 jmp L_poly_invntt$6 L_poly_invntt$7: movw (%rsi,%rdi,2), %r9w incq %rdi movq %r11, %r10 leaq (%r11,%r8), %r11 jmp L_poly_invntt$8 L_poly_invntt$9: leaq (%r10,%r8), %rbx movw (%rcx,%rbx,2), %bp movw (%rcx,%r10,2), %r12w movw %bp, %r13w addw %r12w, %r13w movswl %r13w, %r14d imull $20159, %r14d, %r14d sarl $26, %r14d imull $3329, %r14d, %r14d subw %r14w, %r13w movw %r13w, (%rcx,%r10,2) subw %bp, %r12w movswl %r12w, %ebp movswl %r9w, %r12d imull %r12d, %ebp imull $62209, %ebp, %r12d shll $16, %r12d sarl $16, %r12d imull $3329, %r12d, %r12d subl %r12d, %ebp sarl $16, %ebp movw %bp, (%rcx,%rbx,2) incq %r10 L_poly_invntt$8: cmpq %r11, %r10 jb L_poly_invntt$9 leaq (%r10,%r8), %r11 L_poly_invntt$6: cmpq $256, %r11 jb L_poly_invntt$7 shlq $1, %r8 L_poly_invntt$4: cmpq $128, %r8 jbe L_poly_invntt$5 movw 254(%rsi), %si movq $0, %rdi jmp L_poly_invntt$2 L_poly_invntt$3: movw (%rcx,%rdi,2), %r8w movswl %r8w, %r8d movswl %si, %r9d imull %r9d, %r8d imull $62209, %r8d, %r9d shll $16, %r9d sarl $16, %r9d imull $3329, %r9d, %r9d subl %r9d, %r8d sarl $16, %r8d movw %r8w, (%rcx,%rdi,2) incq %rdi L_poly_invntt$2: cmpq $256, %rdi jb L_poly_invntt$3 ret L_poly_getnoise$1: movq %rdx, 8(%rsp) movb (%rax), %dl movb %dl, 16(%rsp) movb 1(%rax), %dl movb %dl, 17(%rsp) movb 2(%rax), %dl movb %dl, 18(%rsp) movb 3(%rax), %dl movb %dl, 19(%rsp) movb 4(%rax), %dl movb %dl, 20(%rsp) movb 5(%rax), %dl movb %dl, 21(%rsp) movb 6(%rax), %dl movb %dl, 22(%rsp) movb 7(%rax), %dl movb %dl, 23(%rsp) movb 8(%rax), %dl movb %dl, 24(%rsp) movb 9(%rax), %dl movb %dl, 25(%rsp) movb 10(%rax), %dl movb %dl, 26(%rsp) movb 11(%rax), %dl movb %dl, 27(%rsp) movb 12(%rax), %dl movb %dl, 28(%rsp) movb 13(%rax), %dl movb %dl, 29(%rsp) movb 14(%rax), %dl movb %dl, 30(%rsp) movb 15(%rax), %dl movb %dl, 31(%rsp) movb 16(%rax), %dl movb %dl, 32(%rsp) movb 17(%rax), %dl movb %dl, 33(%rsp) movb 18(%rax), %dl movb %dl, 34(%rsp) movb 19(%rax), %dl movb %dl, 35(%rsp) movb 20(%rax), %dl movb %dl, 36(%rsp) movb 21(%rax), %dl movb %dl, 37(%rsp) movb 22(%rax), %dl movb %dl, 38(%rsp) movb 23(%rax), %dl movb %dl, 39(%rsp) movb 24(%rax), %dl movb %dl, 40(%rsp) movb 25(%rax), %dl movb %dl, 41(%rsp) movb 26(%rax), %dl movb %dl, 42(%rsp) movb 27(%rax), %dl movb %dl, 43(%rsp) movb 28(%rax), %dl movb %dl, 44(%rsp) movb 29(%rax), %dl movb %dl, 45(%rsp) movb 30(%rax), %dl movb %dl, 46(%rsp) movb 31(%rax), %dl movb %dl, 47(%rsp) movb %cl, 48(%rsp) leaq 49(%rsp), %rcx leaq 16(%rsp), %rdx leaq -208(%rsp), %rsp call L_shake256_128_33$1 L_poly_getnoise$4: leaq 208(%rsp), %rsp movq 8(%rsp), %rcx movq $0, %rdx movq $0, %rsi jmp L_poly_getnoise$2 L_poly_getnoise$3: movb 49(%rsp,%rdx), %dil movb %dil, %r8b andb $85, %r8b shrb $1, %dil andb $85, %dil addb %r8b, %dil movb %dil, %r8b andb $3, %r8b movb %dil, %r9b shrb $2, %r9b andb $3, %r9b subb %r9b, %r8b movsbw %r8b, %r8w movw %r8w, (%rcx,%rsi,2) movb %dil, %r8b shrb $4, %r8b andb $3, %r8b shrb $6, %dil andb $3, %dil subb %dil, %r8b movsbw %r8b, %di incq %rsi movw %di, (%rcx,%rsi,2) incq %rdx incq %rsi L_poly_getnoise$2: cmpq $128, %rdx jb L_poly_getnoise$3 ret L_i_poly_frommsg$1: movb (%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, (%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 2(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 4(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 6(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 8(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 10(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 12(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 14(%rdx) movb 1(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 16(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 18(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 20(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 22(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 24(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 26(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 28(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 30(%rdx) movb 2(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 32(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 34(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 36(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 38(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 40(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 42(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 44(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 46(%rdx) movb 3(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 48(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 50(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 52(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 54(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 56(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 58(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 60(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 62(%rdx) movb 4(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 64(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 66(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 68(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 70(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 72(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 74(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 76(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 78(%rdx) movb 5(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 80(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 82(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 84(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 86(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 88(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 90(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 92(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 94(%rdx) movb 6(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 96(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 98(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 100(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 102(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 104(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 106(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 108(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 110(%rdx) movb 7(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 112(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 114(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 116(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 118(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 120(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 122(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 124(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 126(%rdx) movb 8(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 128(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 130(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 132(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 134(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 136(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 138(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 140(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 142(%rdx) movb 9(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 144(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 146(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 148(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 150(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 152(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 154(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 156(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 158(%rdx) movb 10(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 160(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 162(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 164(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 166(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 168(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 170(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 172(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 174(%rdx) movb 11(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 176(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 178(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 180(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 182(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 184(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 186(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 188(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 190(%rdx) movb 12(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 192(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 194(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 196(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 198(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 200(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 202(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 204(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 206(%rdx) movb 13(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 208(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 210(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 212(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 214(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 216(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 218(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 220(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 222(%rdx) movb 14(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 224(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 226(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 228(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 230(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 232(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 234(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 236(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 238(%rdx) movb 15(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 240(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 242(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 244(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 246(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 248(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 250(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 252(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 254(%rdx) movb 16(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 256(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 258(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 260(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 262(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 264(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 266(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 268(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 270(%rdx) movb 17(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 272(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 274(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 276(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 278(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 280(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 282(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 284(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 286(%rdx) movb 18(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 288(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 290(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 292(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 294(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 296(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 298(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 300(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 302(%rdx) movb 19(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 304(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 306(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 308(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 310(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 312(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 314(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 316(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 318(%rdx) movb 20(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 320(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 322(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 324(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 326(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 328(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 330(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 332(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 334(%rdx) movb 21(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 336(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 338(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 340(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 342(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 344(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 346(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 348(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 350(%rdx) movb 22(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 352(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 354(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 356(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 358(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 360(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 362(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 364(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 366(%rdx) movb 23(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 368(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 370(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 372(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 374(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 376(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 378(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 380(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 382(%rdx) movb 24(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 384(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 386(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 388(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 390(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 392(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 394(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 396(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 398(%rdx) movb 25(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 400(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 402(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 404(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 406(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 408(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 410(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 412(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 414(%rdx) movb 26(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 416(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 418(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 420(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 422(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 424(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 426(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 428(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 430(%rdx) movb 27(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 432(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 434(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 436(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 438(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 440(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 442(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 444(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 446(%rdx) movb 28(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 448(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 450(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 452(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 454(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 456(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 458(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 460(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 462(%rdx) movb 29(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 464(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 466(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 468(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 470(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 472(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 474(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 476(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 478(%rdx) movb 30(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 480(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 482(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 484(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 486(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 488(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 490(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 492(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 494(%rdx) movb 31(%rcx), %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 496(%rdx) shrb $1, %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 498(%rdx) shrb $1, %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 500(%rdx) shrb $1, %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 502(%rdx) shrb $1, %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 504(%rdx) shrb $1, %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 506(%rdx) shrb $1, %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 508(%rdx) shrb $1, %cl movzbw %cl, %cx andw $1, %cx imulw $1665, %cx, %cx movw %cx, 510(%rdx) ret L_poly_frommont$1: movw $1353, %cx movq $0, %rdx jmp L_poly_frommont$2 L_poly_frommont$3: movw (%rax,%rdx,2), %si movswl %si, %esi movswl %cx, %edi imull %edi, %esi imull $62209, %esi, %edi shll $16, %edi sarl $16, %edi imull $3329, %edi, %edi subl %edi, %esi sarl $16, %esi movw %si, (%rax,%rdx,2) incq %rdx L_poly_frommont$2: cmpq $256, %rdx jb L_poly_frommont$3 ret L_poly_frombytes$1: movb (%rsi), %r8b movb 1(%rsi), %r9b movb 2(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, (%rdi) movw %r10w, 2(%rdi) movb 3(%rsi), %r8b movb 4(%rsi), %r9b movb 5(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 4(%rdi) movw %r10w, 6(%rdi) movb 6(%rsi), %r8b movb 7(%rsi), %r9b movb 8(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 8(%rdi) movw %r10w, 10(%rdi) movb 9(%rsi), %r8b movb 10(%rsi), %r9b movb 11(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 12(%rdi) movw %r10w, 14(%rdi) movb 12(%rsi), %r8b movb 13(%rsi), %r9b movb 14(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 16(%rdi) movw %r10w, 18(%rdi) movb 15(%rsi), %r8b movb 16(%rsi), %r9b movb 17(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 20(%rdi) movw %r10w, 22(%rdi) movb 18(%rsi), %r8b movb 19(%rsi), %r9b movb 20(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 24(%rdi) movw %r10w, 26(%rdi) movb 21(%rsi), %r8b movb 22(%rsi), %r9b movb 23(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 28(%rdi) movw %r10w, 30(%rdi) movb 24(%rsi), %r8b movb 25(%rsi), %r9b movb 26(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 32(%rdi) movw %r10w, 34(%rdi) movb 27(%rsi), %r8b movb 28(%rsi), %r9b movb 29(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 36(%rdi) movw %r10w, 38(%rdi) movb 30(%rsi), %r8b movb 31(%rsi), %r9b movb 32(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 40(%rdi) movw %r10w, 42(%rdi) movb 33(%rsi), %r8b movb 34(%rsi), %r9b movb 35(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 44(%rdi) movw %r10w, 46(%rdi) movb 36(%rsi), %r8b movb 37(%rsi), %r9b movb 38(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 48(%rdi) movw %r10w, 50(%rdi) movb 39(%rsi), %r8b movb 40(%rsi), %r9b movb 41(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 52(%rdi) movw %r10w, 54(%rdi) movb 42(%rsi), %r8b movb 43(%rsi), %r9b movb 44(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 56(%rdi) movw %r10w, 58(%rdi) movb 45(%rsi), %r8b movb 46(%rsi), %r9b movb 47(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 60(%rdi) movw %r10w, 62(%rdi) movb 48(%rsi), %r8b movb 49(%rsi), %r9b movb 50(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 64(%rdi) movw %r10w, 66(%rdi) movb 51(%rsi), %r8b movb 52(%rsi), %r9b movb 53(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 68(%rdi) movw %r10w, 70(%rdi) movb 54(%rsi), %r8b movb 55(%rsi), %r9b movb 56(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 72(%rdi) movw %r10w, 74(%rdi) movb 57(%rsi), %r8b movb 58(%rsi), %r9b movb 59(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 76(%rdi) movw %r10w, 78(%rdi) movb 60(%rsi), %r8b movb 61(%rsi), %r9b movb 62(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 80(%rdi) movw %r10w, 82(%rdi) movb 63(%rsi), %r8b movb 64(%rsi), %r9b movb 65(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 84(%rdi) movw %r10w, 86(%rdi) movb 66(%rsi), %r8b movb 67(%rsi), %r9b movb 68(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 88(%rdi) movw %r10w, 90(%rdi) movb 69(%rsi), %r8b movb 70(%rsi), %r9b movb 71(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 92(%rdi) movw %r10w, 94(%rdi) movb 72(%rsi), %r8b movb 73(%rsi), %r9b movb 74(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 96(%rdi) movw %r10w, 98(%rdi) movb 75(%rsi), %r8b movb 76(%rsi), %r9b movb 77(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 100(%rdi) movw %r10w, 102(%rdi) movb 78(%rsi), %r8b movb 79(%rsi), %r9b movb 80(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 104(%rdi) movw %r10w, 106(%rdi) movb 81(%rsi), %r8b movb 82(%rsi), %r9b movb 83(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 108(%rdi) movw %r10w, 110(%rdi) movb 84(%rsi), %r8b movb 85(%rsi), %r9b movb 86(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 112(%rdi) movw %r10w, 114(%rdi) movb 87(%rsi), %r8b movb 88(%rsi), %r9b movb 89(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 116(%rdi) movw %r10w, 118(%rdi) movb 90(%rsi), %r8b movb 91(%rsi), %r9b movb 92(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 120(%rdi) movw %r10w, 122(%rdi) movb 93(%rsi), %r8b movb 94(%rsi), %r9b movb 95(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 124(%rdi) movw %r10w, 126(%rdi) movb 96(%rsi), %r8b movb 97(%rsi), %r9b movb 98(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 128(%rdi) movw %r10w, 130(%rdi) movb 99(%rsi), %r8b movb 100(%rsi), %r9b movb 101(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 132(%rdi) movw %r10w, 134(%rdi) movb 102(%rsi), %r8b movb 103(%rsi), %r9b movb 104(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 136(%rdi) movw %r10w, 138(%rdi) movb 105(%rsi), %r8b movb 106(%rsi), %r9b movb 107(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 140(%rdi) movw %r10w, 142(%rdi) movb 108(%rsi), %r8b movb 109(%rsi), %r9b movb 110(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 144(%rdi) movw %r10w, 146(%rdi) movb 111(%rsi), %r8b movb 112(%rsi), %r9b movb 113(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 148(%rdi) movw %r10w, 150(%rdi) movb 114(%rsi), %r8b movb 115(%rsi), %r9b movb 116(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 152(%rdi) movw %r10w, 154(%rdi) movb 117(%rsi), %r8b movb 118(%rsi), %r9b movb 119(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 156(%rdi) movw %r10w, 158(%rdi) movb 120(%rsi), %r8b movb 121(%rsi), %r9b movb 122(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 160(%rdi) movw %r10w, 162(%rdi) movb 123(%rsi), %r8b movb 124(%rsi), %r9b movb 125(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 164(%rdi) movw %r10w, 166(%rdi) movb 126(%rsi), %r8b movb 127(%rsi), %r9b movb 128(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 168(%rdi) movw %r10w, 170(%rdi) movb 129(%rsi), %r8b movb 130(%rsi), %r9b movb 131(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 172(%rdi) movw %r10w, 174(%rdi) movb 132(%rsi), %r8b movb 133(%rsi), %r9b movb 134(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 176(%rdi) movw %r10w, 178(%rdi) movb 135(%rsi), %r8b movb 136(%rsi), %r9b movb 137(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 180(%rdi) movw %r10w, 182(%rdi) movb 138(%rsi), %r8b movb 139(%rsi), %r9b movb 140(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 184(%rdi) movw %r10w, 186(%rdi) movb 141(%rsi), %r8b movb 142(%rsi), %r9b movb 143(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 188(%rdi) movw %r10w, 190(%rdi) movb 144(%rsi), %r8b movb 145(%rsi), %r9b movb 146(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 192(%rdi) movw %r10w, 194(%rdi) movb 147(%rsi), %r8b movb 148(%rsi), %r9b movb 149(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 196(%rdi) movw %r10w, 198(%rdi) movb 150(%rsi), %r8b movb 151(%rsi), %r9b movb 152(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 200(%rdi) movw %r10w, 202(%rdi) movb 153(%rsi), %r8b movb 154(%rsi), %r9b movb 155(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 204(%rdi) movw %r10w, 206(%rdi) movb 156(%rsi), %r8b movb 157(%rsi), %r9b movb 158(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 208(%rdi) movw %r10w, 210(%rdi) movb 159(%rsi), %r8b movb 160(%rsi), %r9b movb 161(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 212(%rdi) movw %r10w, 214(%rdi) movb 162(%rsi), %r8b movb 163(%rsi), %r9b movb 164(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 216(%rdi) movw %r10w, 218(%rdi) movb 165(%rsi), %r8b movb 166(%rsi), %r9b movb 167(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 220(%rdi) movw %r10w, 222(%rdi) movb 168(%rsi), %r8b movb 169(%rsi), %r9b movb 170(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 224(%rdi) movw %r10w, 226(%rdi) movb 171(%rsi), %r8b movb 172(%rsi), %r9b movb 173(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 228(%rdi) movw %r10w, 230(%rdi) movb 174(%rsi), %r8b movb 175(%rsi), %r9b movb 176(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 232(%rdi) movw %r10w, 234(%rdi) movb 177(%rsi), %r8b movb 178(%rsi), %r9b movb 179(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 236(%rdi) movw %r10w, 238(%rdi) movb 180(%rsi), %r8b movb 181(%rsi), %r9b movb 182(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 240(%rdi) movw %r10w, 242(%rdi) movb 183(%rsi), %r8b movb 184(%rsi), %r9b movb 185(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 244(%rdi) movw %r10w, 246(%rdi) movb 186(%rsi), %r8b movb 187(%rsi), %r9b movb 188(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 248(%rdi) movw %r10w, 250(%rdi) movb 189(%rsi), %r8b movb 190(%rsi), %r9b movb 191(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 252(%rdi) movw %r10w, 254(%rdi) movb 192(%rsi), %r8b movb 193(%rsi), %r9b movb 194(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 256(%rdi) movw %r10w, 258(%rdi) movb 195(%rsi), %r8b movb 196(%rsi), %r9b movb 197(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 260(%rdi) movw %r10w, 262(%rdi) movb 198(%rsi), %r8b movb 199(%rsi), %r9b movb 200(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 264(%rdi) movw %r10w, 266(%rdi) movb 201(%rsi), %r8b movb 202(%rsi), %r9b movb 203(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 268(%rdi) movw %r10w, 270(%rdi) movb 204(%rsi), %r8b movb 205(%rsi), %r9b movb 206(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 272(%rdi) movw %r10w, 274(%rdi) movb 207(%rsi), %r8b movb 208(%rsi), %r9b movb 209(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 276(%rdi) movw %r10w, 278(%rdi) movb 210(%rsi), %r8b movb 211(%rsi), %r9b movb 212(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 280(%rdi) movw %r10w, 282(%rdi) movb 213(%rsi), %r8b movb 214(%rsi), %r9b movb 215(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 284(%rdi) movw %r10w, 286(%rdi) movb 216(%rsi), %r8b movb 217(%rsi), %r9b movb 218(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 288(%rdi) movw %r10w, 290(%rdi) movb 219(%rsi), %r8b movb 220(%rsi), %r9b movb 221(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 292(%rdi) movw %r10w, 294(%rdi) movb 222(%rsi), %r8b movb 223(%rsi), %r9b movb 224(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 296(%rdi) movw %r10w, 298(%rdi) movb 225(%rsi), %r8b movb 226(%rsi), %r9b movb 227(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 300(%rdi) movw %r10w, 302(%rdi) movb 228(%rsi), %r8b movb 229(%rsi), %r9b movb 230(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 304(%rdi) movw %r10w, 306(%rdi) movb 231(%rsi), %r8b movb 232(%rsi), %r9b movb 233(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 308(%rdi) movw %r10w, 310(%rdi) movb 234(%rsi), %r8b movb 235(%rsi), %r9b movb 236(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 312(%rdi) movw %r10w, 314(%rdi) movb 237(%rsi), %r8b movb 238(%rsi), %r9b movb 239(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 316(%rdi) movw %r10w, 318(%rdi) movb 240(%rsi), %r8b movb 241(%rsi), %r9b movb 242(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 320(%rdi) movw %r10w, 322(%rdi) movb 243(%rsi), %r8b movb 244(%rsi), %r9b movb 245(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 324(%rdi) movw %r10w, 326(%rdi) movb 246(%rsi), %r8b movb 247(%rsi), %r9b movb 248(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 328(%rdi) movw %r10w, 330(%rdi) movb 249(%rsi), %r8b movb 250(%rsi), %r9b movb 251(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 332(%rdi) movw %r10w, 334(%rdi) movb 252(%rsi), %r8b movb 253(%rsi), %r9b movb 254(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 336(%rdi) movw %r10w, 338(%rdi) movb 255(%rsi), %r8b movb 256(%rsi), %r9b movb 257(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 340(%rdi) movw %r10w, 342(%rdi) movb 258(%rsi), %r8b movb 259(%rsi), %r9b movb 260(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 344(%rdi) movw %r10w, 346(%rdi) movb 261(%rsi), %r8b movb 262(%rsi), %r9b movb 263(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 348(%rdi) movw %r10w, 350(%rdi) movb 264(%rsi), %r8b movb 265(%rsi), %r9b movb 266(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 352(%rdi) movw %r10w, 354(%rdi) movb 267(%rsi), %r8b movb 268(%rsi), %r9b movb 269(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 356(%rdi) movw %r10w, 358(%rdi) movb 270(%rsi), %r8b movb 271(%rsi), %r9b movb 272(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 360(%rdi) movw %r10w, 362(%rdi) movb 273(%rsi), %r8b movb 274(%rsi), %r9b movb 275(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 364(%rdi) movw %r10w, 366(%rdi) movb 276(%rsi), %r8b movb 277(%rsi), %r9b movb 278(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 368(%rdi) movw %r10w, 370(%rdi) movb 279(%rsi), %r8b movb 280(%rsi), %r9b movb 281(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 372(%rdi) movw %r10w, 374(%rdi) movb 282(%rsi), %r8b movb 283(%rsi), %r9b movb 284(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 376(%rdi) movw %r10w, 378(%rdi) movb 285(%rsi), %r8b movb 286(%rsi), %r9b movb 287(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 380(%rdi) movw %r10w, 382(%rdi) movb 288(%rsi), %r8b movb 289(%rsi), %r9b movb 290(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 384(%rdi) movw %r10w, 386(%rdi) movb 291(%rsi), %r8b movb 292(%rsi), %r9b movb 293(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 388(%rdi) movw %r10w, 390(%rdi) movb 294(%rsi), %r8b movb 295(%rsi), %r9b movb 296(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 392(%rdi) movw %r10w, 394(%rdi) movb 297(%rsi), %r8b movb 298(%rsi), %r9b movb 299(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 396(%rdi) movw %r10w, 398(%rdi) movb 300(%rsi), %r8b movb 301(%rsi), %r9b movb 302(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 400(%rdi) movw %r10w, 402(%rdi) movb 303(%rsi), %r8b movb 304(%rsi), %r9b movb 305(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 404(%rdi) movw %r10w, 406(%rdi) movb 306(%rsi), %r8b movb 307(%rsi), %r9b movb 308(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 408(%rdi) movw %r10w, 410(%rdi) movb 309(%rsi), %r8b movb 310(%rsi), %r9b movb 311(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 412(%rdi) movw %r10w, 414(%rdi) movb 312(%rsi), %r8b movb 313(%rsi), %r9b movb 314(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 416(%rdi) movw %r10w, 418(%rdi) movb 315(%rsi), %r8b movb 316(%rsi), %r9b movb 317(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 420(%rdi) movw %r10w, 422(%rdi) movb 318(%rsi), %r8b movb 319(%rsi), %r9b movb 320(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 424(%rdi) movw %r10w, 426(%rdi) movb 321(%rsi), %r8b movb 322(%rsi), %r9b movb 323(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 428(%rdi) movw %r10w, 430(%rdi) movb 324(%rsi), %r8b movb 325(%rsi), %r9b movb 326(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 432(%rdi) movw %r10w, 434(%rdi) movb 327(%rsi), %r8b movb 328(%rsi), %r9b movb 329(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 436(%rdi) movw %r10w, 438(%rdi) movb 330(%rsi), %r8b movb 331(%rsi), %r9b movb 332(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 440(%rdi) movw %r10w, 442(%rdi) movb 333(%rsi), %r8b movb 334(%rsi), %r9b movb 335(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 444(%rdi) movw %r10w, 446(%rdi) movb 336(%rsi), %r8b movb 337(%rsi), %r9b movb 338(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 448(%rdi) movw %r10w, 450(%rdi) movb 339(%rsi), %r8b movb 340(%rsi), %r9b movb 341(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 452(%rdi) movw %r10w, 454(%rdi) movb 342(%rsi), %r8b movb 343(%rsi), %r9b movb 344(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 456(%rdi) movw %r10w, 458(%rdi) movb 345(%rsi), %r8b movb 346(%rsi), %r9b movb 347(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 460(%rdi) movw %r10w, 462(%rdi) movb 348(%rsi), %r8b movb 349(%rsi), %r9b movb 350(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 464(%rdi) movw %r10w, 466(%rdi) movb 351(%rsi), %r8b movb 352(%rsi), %r9b movb 353(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 468(%rdi) movw %r10w, 470(%rdi) movb 354(%rsi), %r8b movb 355(%rsi), %r9b movb 356(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 472(%rdi) movw %r10w, 474(%rdi) movb 357(%rsi), %r8b movb 358(%rsi), %r9b movb 359(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 476(%rdi) movw %r10w, 478(%rdi) movb 360(%rsi), %r8b movb 361(%rsi), %r9b movb 362(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 480(%rdi) movw %r10w, 482(%rdi) movb 363(%rsi), %r8b movb 364(%rsi), %r9b movb 365(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 484(%rdi) movw %r10w, 486(%rdi) movb 366(%rsi), %r8b movb 367(%rsi), %r9b movb 368(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 488(%rdi) movw %r10w, 490(%rdi) movb 369(%rsi), %r8b movb 370(%rsi), %r9b movb 371(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 492(%rdi) movw %r10w, 494(%rdi) movb 372(%rsi), %r8b movb 373(%rsi), %r9b movb 374(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 496(%rdi) movw %r10w, 498(%rdi) movb 375(%rsi), %r8b movb 376(%rsi), %r9b movb 377(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 500(%rdi) movw %r10w, 502(%rdi) movb 378(%rsi), %r8b movb 379(%rsi), %r9b movb 380(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 504(%rdi) movw %r10w, 506(%rdi) movb 381(%rsi), %r8b movb 382(%rsi), %r9b movb 383(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 508(%rdi) movw %r10w, 510(%rdi) ret L_poly_decompress$1: movq $0, %rdi movq $0, %r8 jmp L_poly_decompress$2 L_poly_decompress$3: movb (%rsi,%rdi), %r9b movzbw %r9b, %r10w movzbw %r9b, %r9w andw $15, %r10w shrw $4, %r9w imulw $3329, %r10w, %r10w imulw $3329, %r9w, %r9w addw $8, %r10w addw $8, %r9w shrw $4, %r10w shrw $4, %r9w movw %r10w, (%rcx,%r8,2) incq %r8 movw %r9w, (%rcx,%r8,2) incq %r8 incq %rdi L_poly_decompress$2: cmpq $128, %rdi jb L_poly_decompress$3 ret L_i_poly_compress$1: call L_poly_csubq$1 L_i_poly_compress$4: movq $0, %rdx movq $0, %rsi jmp L_i_poly_compress$2 L_i_poly_compress$3: movw (%rcx,%rsi,2), %di movzwl %di, %edi shll $4, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $15, %edi incq %rsi movw (%rcx,%rsi,2), %r8w movzwl %r8w, %r8d shll $4, %r8d addl $1665, %r8d imull $80635, %r8d, %r8d shrl $28, %r8d andl $15, %r8d shll $4, %r8d orl %r8d, %edi movb %dil, (%rax,%rdx) incq %rdx incq %rsi L_i_poly_compress$2: cmpq $128, %rdx jb L_i_poly_compress$3 ret L_poly_compress$1: call L_poly_csubq$1 L_poly_compress$4: movq $0, %rdx movq $0, %rsi jmp L_poly_compress$2 L_poly_compress$3: movw (%rcx,%rsi,2), %di movzwl %di, %edi shll $4, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $15, %edi incq %rsi movw (%rcx,%rsi,2), %r8w movzwl %r8w, %r8d shll $4, %r8d addl $1665, %r8d imull $80635, %r8d, %r8d shrl $28, %r8d andl $15, %r8d shll $4, %r8d orl %r8d, %edi movb %dil, (%rax,%rdx) incq %rdx incq %rsi L_poly_compress$2: cmpq $128, %rdx jb L_poly_compress$3 ret L_poly_basemul$1: movq %rdi, 8(%rsp) movq $64, %rdi movq $0, %r8 jmp L_poly_basemul$2 L_poly_basemul$3: leaq glob_data + 448(%rip), %r9 movw (%r9,%rdi,2), %r9w incq %rdi movw (%rcx,%r8,2), %r10w movw (%rsi,%r8,2), %r11w incq %r8 movw (%rcx,%r8,2), %bx movw (%rsi,%r8,2), %bp addq $-1, %r8 movswl %bx, %r12d movswl %bp, %r13d imull %r13d, %r12d imull $62209, %r12d, %r13d shll $16, %r13d sarl $16, %r13d imull $3329, %r13d, %r13d subl %r13d, %r12d sarl $16, %r12d movswl %r12w, %r12d movswl %r9w, %r13d imull %r13d, %r12d imull $62209, %r12d, %r13d shll $16, %r13d sarl $16, %r13d imull $3329, %r13d, %r13d subl %r13d, %r12d sarl $16, %r12d movswl %r10w, %r13d movswl %r11w, %r14d imull %r14d, %r13d imull $62209, %r13d, %r14d shll $16, %r14d sarl $16, %r14d imull $3329, %r14d, %r14d subl %r14d, %r13d sarl $16, %r13d addw %r13w, %r12w movswl %r10w, %r10d movswl %bp, %ebp imull %ebp, %r10d imull $62209, %r10d, %ebp shll $16, %ebp sarl $16, %ebp imull $3329, %ebp, %ebp subl %ebp, %r10d sarl $16, %r10d movswl %bx, %ebx movswl %r11w, %r11d imull %r11d, %ebx imull $62209, %ebx, %r11d shll $16, %r11d sarl $16, %r11d imull $3329, %r11d, %r11d subl %r11d, %ebx sarl $16, %ebx addw %bx, %r10w movq 8(%rsp), %r11 movw %r12w, (%r11,%r8,2) incq %r8 movw %r10w, (%r11,%r8,2) movq %r11, 16(%rsp) negw %r9w incq %r8 movw (%rcx,%r8,2), %r10w movw (%rsi,%r8,2), %r11w incq %r8 movw (%rcx,%r8,2), %bx movw (%rsi,%r8,2), %bp addq $-1, %r8 movswl %bx, %r12d movswl %bp, %r13d imull %r13d, %r12d imull $62209, %r12d, %r13d shll $16, %r13d sarl $16, %r13d imull $3329, %r13d, %r13d subl %r13d, %r12d sarl $16, %r12d movswl %r12w, %r12d movswl %r9w, %r9d imull %r9d, %r12d imull $62209, %r12d, %r9d shll $16, %r9d sarl $16, %r9d imull $3329, %r9d, %r9d subl %r9d, %r12d sarl $16, %r12d movw %r12w, %r9w movswl %r10w, %r12d movswl %r11w, %r13d imull %r13d, %r12d imull $62209, %r12d, %r13d shll $16, %r13d sarl $16, %r13d imull $3329, %r13d, %r13d subl %r13d, %r12d sarl $16, %r12d addw %r12w, %r9w movswl %r10w, %r10d movswl %bp, %ebp imull %ebp, %r10d imull $62209, %r10d, %ebp shll $16, %ebp sarl $16, %ebp imull $3329, %ebp, %ebp subl %ebp, %r10d sarl $16, %r10d movswl %bx, %ebx movswl %r11w, %r11d imull %r11d, %ebx imull $62209, %ebx, %r11d shll $16, %r11d sarl $16, %r11d imull $3329, %r11d, %r11d subl %r11d, %ebx sarl $16, %ebx addw %bx, %r10w movq 16(%rsp), %r11 movw %r9w, (%r11,%r8,2) incq %r8 movw %r10w, (%r11,%r8,2) incq %r8 L_poly_basemul$2: cmpq $256, %r8 jb L_poly_basemul$3 ret L_poly_csubq$1: movq $0, %r8 jmp L_poly_csubq$2 L_poly_csubq$3: movw (%rcx,%r8,2), %r9w addw $-3329, %r9w movw %r9w, %r10w sarw $15, %r10w andw $3329, %r10w addw %r10w, %r9w movw %r9w, (%rcx,%r8,2) incq %r8 L_poly_csubq$2: cmpq $256, %r8 jb L_poly_csubq$3 ret L_poly_add2$1: movq $0, %rdi jmp L_poly_add2$2 L_poly_add2$3: movw (%rcx,%rdi,2), %r8w movw (%rsi,%rdi,2), %r9w addw %r9w, %r8w movw %r8w, (%rcx,%rdi,2) incq %rdi L_poly_add2$2: cmpq $256, %rdi jb L_poly_add2$3 ret L_shake256_64$1: movq %rax, 8(%rsp) movq %rcx, 16(%rsp) leaq 24(%rsp), %rcx xorq %rax, %rax movq %rax, (%rcx) movq %rax, 8(%rcx) movq %rax, 16(%rcx) movq %rax, 24(%rcx) movq %rax, 32(%rcx) movq %rax, 40(%rcx) movq %rax, 48(%rcx) movq %rax, 56(%rcx) movq %rax, 64(%rcx) movq %rax, 72(%rcx) movq %rax, 80(%rcx) movq %rax, 88(%rcx) movq %rax, 96(%rcx) movq %rax, 104(%rcx) movq %rax, 112(%rcx) movq %rax, 120(%rcx) movq %rax, 128(%rcx) movq %rax, 136(%rcx) movq %rax, 144(%rcx) movq %rax, 152(%rcx) movq %rax, 160(%rcx) movq %rax, 168(%rcx) movq %rax, 176(%rcx) movq %rax, 184(%rcx) movq %rax, 192(%rcx) movq (%rdx), %rax xorq %rax, (%rcx) movq 8(%rdx), %rax xorq %rax, 8(%rcx) movq 16(%rdx), %rax xorq %rax, 16(%rcx) movq 24(%rdx), %rax xorq %rax, 24(%rcx) movq 32(%rdx), %rax xorq %rax, 32(%rcx) movq 40(%rdx), %rax xorq %rax, 40(%rcx) movq 48(%rdx), %rax xorq %rax, 48(%rcx) movq 56(%rdx), %rax xorq %rax, 56(%rcx) xorb $31, 64(%rcx) xorb $-128, 135(%rcx) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_shake256_64$9: leaq 224(%rsp), %rsp movq 16(%rsp), %rax movq 8(%rsp), %rdx jmp L_shake256_64$6 L_shake256_64$7: movq (%rcx), %rsi movq %rsi, (%rdx) movq 8(%rcx), %rsi movq %rsi, 8(%rdx) movq 16(%rcx), %rsi movq %rsi, 16(%rdx) movq 24(%rcx), %rsi movq %rsi, 24(%rdx) movq 32(%rcx), %rsi movq %rsi, 32(%rdx) movq 40(%rcx), %rsi movq %rsi, 40(%rdx) movq 48(%rcx), %rsi movq %rsi, 48(%rdx) movq 56(%rcx), %rsi movq %rsi, 56(%rdx) movq 64(%rcx), %rsi movq %rsi, 64(%rdx) movq 72(%rcx), %rsi movq %rsi, 72(%rdx) movq 80(%rcx), %rsi movq %rsi, 80(%rdx) movq 88(%rcx), %rsi movq %rsi, 88(%rdx) movq 96(%rcx), %rsi movq %rsi, 96(%rdx) movq 104(%rcx), %rsi movq %rsi, 104(%rdx) movq 112(%rcx), %rsi movq %rsi, 112(%rdx) movq 120(%rcx), %rsi movq %rsi, 120(%rdx) movq 128(%rcx), %rsi movq %rsi, 128(%rdx) addq $136, %rdx addq $-136, %rax movq %rdx, 8(%rsp) movq %rax, 16(%rsp) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_shake256_64$8: leaq 224(%rsp), %rsp movq 16(%rsp), %rax movq 8(%rsp), %rdx L_shake256_64$6: cmpq $136, %rax jnbe L_shake256_64$7 movq %rax, 8(%rsp) shrq $3, %rax movq $0, %rsi jmp L_shake256_64$4 L_shake256_64$5: movq (%rcx,%rsi,8), %rdi movq %rdi, (%rdx,%rsi,8) incq %rsi L_shake256_64$4: cmpq %rax, %rsi jb L_shake256_64$5 shlq $3, %rsi movq 8(%rsp), %rax jmp L_shake256_64$2 L_shake256_64$3: movb (%rcx,%rsi), %dil movb %dil, (%rdx,%rsi) incq %rsi L_shake256_64$2: cmpq %rax, %rsi jb L_shake256_64$3 ret L_sha3_512_64$1: movq %rax, 8(%rsp) leaq 16(%rsp), %rcx xorq %rax, %rax movq %rax, (%rcx) movq %rax, 8(%rcx) movq %rax, 16(%rcx) movq %rax, 24(%rcx) movq %rax, 32(%rcx) movq %rax, 40(%rcx) movq %rax, 48(%rcx) movq %rax, 56(%rcx) movq %rax, 64(%rcx) movq %rax, 72(%rcx) movq %rax, 80(%rcx) movq %rax, 88(%rcx) movq %rax, 96(%rcx) movq %rax, 104(%rcx) movq %rax, 112(%rcx) movq %rax, 120(%rcx) movq %rax, 128(%rcx) movq %rax, 136(%rcx) movq %rax, 144(%rcx) movq %rax, 152(%rcx) movq %rax, 160(%rcx) movq %rax, 168(%rcx) movq %rax, 176(%rcx) movq %rax, 184(%rcx) movq %rax, 192(%rcx) movq (%rdx), %rax xorq %rax, (%rcx) movq 8(%rdx), %rax xorq %rax, 8(%rcx) movq 16(%rdx), %rax xorq %rax, 16(%rcx) movq 24(%rdx), %rax xorq %rax, 24(%rcx) movq 32(%rdx), %rax xorq %rax, 32(%rcx) movq 40(%rdx), %rax xorq %rax, 40(%rcx) movq 48(%rdx), %rax xorq %rax, 48(%rcx) movq 56(%rdx), %rax xorq %rax, 56(%rcx) xorb $6, 64(%rcx) xorb $-128, 71(%rcx) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_sha3_512_64$2: leaq 224(%rsp), %rsp movq 8(%rsp), %rax movq (%rcx), %rdx movq %rdx, (%rax) movq 8(%rcx), %rdx movq %rdx, 8(%rax) movq 16(%rcx), %rdx movq %rdx, 16(%rax) movq 24(%rcx), %rdx movq %rdx, 24(%rax) movq 32(%rcx), %rdx movq %rdx, 32(%rax) movq 40(%rcx), %rdx movq %rdx, 40(%rax) movq 48(%rcx), %rdx movq %rdx, 48(%rax) movq 56(%rcx), %rcx movq %rcx, 56(%rax) ret L_sha3_256_32$1: movq %rax, 8(%rsp) leaq 16(%rsp), %rcx xorq %rax, %rax movq %rax, (%rcx) movq %rax, 8(%rcx) movq %rax, 16(%rcx) movq %rax, 24(%rcx) movq %rax, 32(%rcx) movq %rax, 40(%rcx) movq %rax, 48(%rcx) movq %rax, 56(%rcx) movq %rax, 64(%rcx) movq %rax, 72(%rcx) movq %rax, 80(%rcx) movq %rax, 88(%rcx) movq %rax, 96(%rcx) movq %rax, 104(%rcx) movq %rax, 112(%rcx) movq %rax, 120(%rcx) movq %rax, 128(%rcx) movq %rax, 136(%rcx) movq %rax, 144(%rcx) movq %rax, 152(%rcx) movq %rax, 160(%rcx) movq %rax, 168(%rcx) movq %rax, 176(%rcx) movq %rax, 184(%rcx) movq %rax, 192(%rcx) movq (%rdx), %rax movq %rax, (%rcx) movq 8(%rdx), %rax movq %rax, 8(%rcx) movq 16(%rdx), %rax movq %rax, 16(%rcx) movq 24(%rdx), %rax movq %rax, 24(%rcx) xorb $6, 32(%rcx) movb $-128, 135(%rcx) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_sha3_256_32$2: leaq 224(%rsp), %rsp movq 8(%rsp), %rax movq (%rcx), %rdx movq %rdx, (%rax) movq 8(%rcx), %rdx movq %rdx, 8(%rax) movq 16(%rcx), %rdx movq %rdx, 16(%rax) movq 24(%rcx), %rcx movq %rcx, 24(%rax) ret L_sha3_256$1: movq %rcx, 8(%rsp) leaq 40(%rsp), %rcx xorq %rdx, %rdx movq %rdx, (%rcx) movq %rdx, 8(%rcx) movq %rdx, 16(%rcx) movq %rdx, 24(%rcx) movq %rdx, 32(%rcx) movq %rdx, 40(%rcx) movq %rdx, 48(%rcx) movq %rdx, 56(%rcx) movq %rdx, 64(%rcx) movq %rdx, 72(%rcx) movq %rdx, 80(%rcx) movq %rdx, 88(%rcx) movq %rdx, 96(%rcx) movq %rdx, 104(%rcx) movq %rdx, 112(%rcx) movq %rdx, 120(%rcx) movq %rdx, 128(%rcx) movq %rdx, 136(%rcx) movq %rdx, 144(%rcx) movq %rdx, 152(%rcx) movq %rdx, 160(%rcx) movq %rdx, 168(%rcx) movq %rdx, 176(%rcx) movq %rdx, 184(%rcx) movq %rdx, 192(%rcx) movq $136, %rdx jmp L_sha3_256$7 L_sha3_256$8: movq %rdx, %rdi shrq $3, %rdi movq $0, %r8 jmp L_sha3_256$10 L_sha3_256$11: movq (%rsi,%r8,8), %r9 xorq %r9, (%rcx,%r8,8) incq %r8 L_sha3_256$10: cmpq %rdi, %r8 jb L_sha3_256$11 addq %rdx, %rsi subq %rdx, %rax movq %rsi, 16(%rsp) movq %rax, 24(%rsp) movq %rdx, 32(%rsp) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_sha3_256$9: leaq 224(%rsp), %rsp movq 16(%rsp), %rsi movq 24(%rsp), %rax movq 32(%rsp), %rdx L_sha3_256$7: cmpq %rdx, %rax jnb L_sha3_256$8 movb $6, %dil movq %rax, %r8 shrq $3, %r8 movq $0, %r9 jmp L_sha3_256$5 L_sha3_256$6: movq (%rsi,%r9,8), %r10 xorq %r10, (%rcx,%r9,8) incq %r9 L_sha3_256$5: cmpq %r8, %r9 jb L_sha3_256$6 shlq $3, %r9 jmp L_sha3_256$3 L_sha3_256$4: movb (%rsi,%r9), %r8b xorb %r8b, (%rcx,%r9) incq %r9 L_sha3_256$3: cmpq %rax, %r9 jb L_sha3_256$4 xorb %dil, (%rcx,%r9) addq $-1, %rdx xorb $-128, (%rcx,%rdx) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_sha3_256$2: leaq 224(%rsp), %rsp movq 8(%rsp), %rax movq (%rcx), %rdx movq %rdx, (%rax) movq 8(%rcx), %rdx movq %rdx, 8(%rax) movq 16(%rcx), %rdx movq %rdx, 16(%rax) movq 24(%rcx), %rcx movq %rcx, 24(%rax) ret L_shake128_squeezeblock$1: movq %rdx, 8(%rsp) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_shake128_squeezeblock$2: leaq 224(%rsp), %rsp movq 8(%rsp), %rdx movb (%rcx), %sil movb %sil, (%rdx) movb 1(%rcx), %sil movb %sil, 1(%rdx) movb 2(%rcx), %sil movb %sil, 2(%rdx) movb 3(%rcx), %sil movb %sil, 3(%rdx) movb 4(%rcx), %sil movb %sil, 4(%rdx) movb 5(%rcx), %sil movb %sil, 5(%rdx) movb 6(%rcx), %sil movb %sil, 6(%rdx) movb 7(%rcx), %sil movb %sil, 7(%rdx) movb 8(%rcx), %sil movb %sil, 8(%rdx) movb 9(%rcx), %sil movb %sil, 9(%rdx) movb 10(%rcx), %sil movb %sil, 10(%rdx) movb 11(%rcx), %sil movb %sil, 11(%rdx) movb 12(%rcx), %sil movb %sil, 12(%rdx) movb 13(%rcx), %sil movb %sil, 13(%rdx) movb 14(%rcx), %sil movb %sil, 14(%rdx) movb 15(%rcx), %sil movb %sil, 15(%rdx) movb 16(%rcx), %sil movb %sil, 16(%rdx) movb 17(%rcx), %sil movb %sil, 17(%rdx) movb 18(%rcx), %sil movb %sil, 18(%rdx) movb 19(%rcx), %sil movb %sil, 19(%rdx) movb 20(%rcx), %sil movb %sil, 20(%rdx) movb 21(%rcx), %sil movb %sil, 21(%rdx) movb 22(%rcx), %sil movb %sil, 22(%rdx) movb 23(%rcx), %sil movb %sil, 23(%rdx) movb 24(%rcx), %sil movb %sil, 24(%rdx) movb 25(%rcx), %sil movb %sil, 25(%rdx) movb 26(%rcx), %sil movb %sil, 26(%rdx) movb 27(%rcx), %sil movb %sil, 27(%rdx) movb 28(%rcx), %sil movb %sil, 28(%rdx) movb 29(%rcx), %sil movb %sil, 29(%rdx) movb 30(%rcx), %sil movb %sil, 30(%rdx) movb 31(%rcx), %sil movb %sil, 31(%rdx) movb 32(%rcx), %sil movb %sil, 32(%rdx) movb 33(%rcx), %sil movb %sil, 33(%rdx) movb 34(%rcx), %sil movb %sil, 34(%rdx) movb 35(%rcx), %sil movb %sil, 35(%rdx) movb 36(%rcx), %sil movb %sil, 36(%rdx) movb 37(%rcx), %sil movb %sil, 37(%rdx) movb 38(%rcx), %sil movb %sil, 38(%rdx) movb 39(%rcx), %sil movb %sil, 39(%rdx) movb 40(%rcx), %sil movb %sil, 40(%rdx) movb 41(%rcx), %sil movb %sil, 41(%rdx) movb 42(%rcx), %sil movb %sil, 42(%rdx) movb 43(%rcx), %sil movb %sil, 43(%rdx) movb 44(%rcx), %sil movb %sil, 44(%rdx) movb 45(%rcx), %sil movb %sil, 45(%rdx) movb 46(%rcx), %sil movb %sil, 46(%rdx) movb 47(%rcx), %sil movb %sil, 47(%rdx) movb 48(%rcx), %sil movb %sil, 48(%rdx) movb 49(%rcx), %sil movb %sil, 49(%rdx) movb 50(%rcx), %sil movb %sil, 50(%rdx) movb 51(%rcx), %sil movb %sil, 51(%rdx) movb 52(%rcx), %sil movb %sil, 52(%rdx) movb 53(%rcx), %sil movb %sil, 53(%rdx) movb 54(%rcx), %sil movb %sil, 54(%rdx) movb 55(%rcx), %sil movb %sil, 55(%rdx) movb 56(%rcx), %sil movb %sil, 56(%rdx) movb 57(%rcx), %sil movb %sil, 57(%rdx) movb 58(%rcx), %sil movb %sil, 58(%rdx) movb 59(%rcx), %sil movb %sil, 59(%rdx) movb 60(%rcx), %sil movb %sil, 60(%rdx) movb 61(%rcx), %sil movb %sil, 61(%rdx) movb 62(%rcx), %sil movb %sil, 62(%rdx) movb 63(%rcx), %sil movb %sil, 63(%rdx) movb 64(%rcx), %sil movb %sil, 64(%rdx) movb 65(%rcx), %sil movb %sil, 65(%rdx) movb 66(%rcx), %sil movb %sil, 66(%rdx) movb 67(%rcx), %sil movb %sil, 67(%rdx) movb 68(%rcx), %sil movb %sil, 68(%rdx) movb 69(%rcx), %sil movb %sil, 69(%rdx) movb 70(%rcx), %sil movb %sil, 70(%rdx) movb 71(%rcx), %sil movb %sil, 71(%rdx) movb 72(%rcx), %sil movb %sil, 72(%rdx) movb 73(%rcx), %sil movb %sil, 73(%rdx) movb 74(%rcx), %sil movb %sil, 74(%rdx) movb 75(%rcx), %sil movb %sil, 75(%rdx) movb 76(%rcx), %sil movb %sil, 76(%rdx) movb 77(%rcx), %sil movb %sil, 77(%rdx) movb 78(%rcx), %sil movb %sil, 78(%rdx) movb 79(%rcx), %sil movb %sil, 79(%rdx) movb 80(%rcx), %sil movb %sil, 80(%rdx) movb 81(%rcx), %sil movb %sil, 81(%rdx) movb 82(%rcx), %sil movb %sil, 82(%rdx) movb 83(%rcx), %sil movb %sil, 83(%rdx) movb 84(%rcx), %sil movb %sil, 84(%rdx) movb 85(%rcx), %sil movb %sil, 85(%rdx) movb 86(%rcx), %sil movb %sil, 86(%rdx) movb 87(%rcx), %sil movb %sil, 87(%rdx) movb 88(%rcx), %sil movb %sil, 88(%rdx) movb 89(%rcx), %sil movb %sil, 89(%rdx) movb 90(%rcx), %sil movb %sil, 90(%rdx) movb 91(%rcx), %sil movb %sil, 91(%rdx) movb 92(%rcx), %sil movb %sil, 92(%rdx) movb 93(%rcx), %sil movb %sil, 93(%rdx) movb 94(%rcx), %sil movb %sil, 94(%rdx) movb 95(%rcx), %sil movb %sil, 95(%rdx) movb 96(%rcx), %sil movb %sil, 96(%rdx) movb 97(%rcx), %sil movb %sil, 97(%rdx) movb 98(%rcx), %sil movb %sil, 98(%rdx) movb 99(%rcx), %sil movb %sil, 99(%rdx) movb 100(%rcx), %sil movb %sil, 100(%rdx) movb 101(%rcx), %sil movb %sil, 101(%rdx) movb 102(%rcx), %sil movb %sil, 102(%rdx) movb 103(%rcx), %sil movb %sil, 103(%rdx) movb 104(%rcx), %sil movb %sil, 104(%rdx) movb 105(%rcx), %sil movb %sil, 105(%rdx) movb 106(%rcx), %sil movb %sil, 106(%rdx) movb 107(%rcx), %sil movb %sil, 107(%rdx) movb 108(%rcx), %sil movb %sil, 108(%rdx) movb 109(%rcx), %sil movb %sil, 109(%rdx) movb 110(%rcx), %sil movb %sil, 110(%rdx) movb 111(%rcx), %sil movb %sil, 111(%rdx) movb 112(%rcx), %sil movb %sil, 112(%rdx) movb 113(%rcx), %sil movb %sil, 113(%rdx) movb 114(%rcx), %sil movb %sil, 114(%rdx) movb 115(%rcx), %sil movb %sil, 115(%rdx) movb 116(%rcx), %sil movb %sil, 116(%rdx) movb 117(%rcx), %sil movb %sil, 117(%rdx) movb 118(%rcx), %sil movb %sil, 118(%rdx) movb 119(%rcx), %sil movb %sil, 119(%rdx) movb 120(%rcx), %sil movb %sil, 120(%rdx) movb 121(%rcx), %sil movb %sil, 121(%rdx) movb 122(%rcx), %sil movb %sil, 122(%rdx) movb 123(%rcx), %sil movb %sil, 123(%rdx) movb 124(%rcx), %sil movb %sil, 124(%rdx) movb 125(%rcx), %sil movb %sil, 125(%rdx) movb 126(%rcx), %sil movb %sil, 126(%rdx) movb 127(%rcx), %sil movb %sil, 127(%rdx) movb 128(%rcx), %sil movb %sil, 128(%rdx) movb 129(%rcx), %sil movb %sil, 129(%rdx) movb 130(%rcx), %sil movb %sil, 130(%rdx) movb 131(%rcx), %sil movb %sil, 131(%rdx) movb 132(%rcx), %sil movb %sil, 132(%rdx) movb 133(%rcx), %sil movb %sil, 133(%rdx) movb 134(%rcx), %sil movb %sil, 134(%rdx) movb 135(%rcx), %sil movb %sil, 135(%rdx) movb 136(%rcx), %sil movb %sil, 136(%rdx) movb 137(%rcx), %sil movb %sil, 137(%rdx) movb 138(%rcx), %sil movb %sil, 138(%rdx) movb 139(%rcx), %sil movb %sil, 139(%rdx) movb 140(%rcx), %sil movb %sil, 140(%rdx) movb 141(%rcx), %sil movb %sil, 141(%rdx) movb 142(%rcx), %sil movb %sil, 142(%rdx) movb 143(%rcx), %sil movb %sil, 143(%rdx) movb 144(%rcx), %sil movb %sil, 144(%rdx) movb 145(%rcx), %sil movb %sil, 145(%rdx) movb 146(%rcx), %sil movb %sil, 146(%rdx) movb 147(%rcx), %sil movb %sil, 147(%rdx) movb 148(%rcx), %sil movb %sil, 148(%rdx) movb 149(%rcx), %sil movb %sil, 149(%rdx) movb 150(%rcx), %sil movb %sil, 150(%rdx) movb 151(%rcx), %sil movb %sil, 151(%rdx) movb 152(%rcx), %sil movb %sil, 152(%rdx) movb 153(%rcx), %sil movb %sil, 153(%rdx) movb 154(%rcx), %sil movb %sil, 154(%rdx) movb 155(%rcx), %sil movb %sil, 155(%rdx) movb 156(%rcx), %sil movb %sil, 156(%rdx) movb 157(%rcx), %sil movb %sil, 157(%rdx) movb 158(%rcx), %sil movb %sil, 158(%rdx) movb 159(%rcx), %sil movb %sil, 159(%rdx) movb 160(%rcx), %sil movb %sil, 160(%rdx) movb 161(%rcx), %sil movb %sil, 161(%rdx) movb 162(%rcx), %sil movb %sil, 162(%rdx) movb 163(%rcx), %sil movb %sil, 163(%rdx) movb 164(%rcx), %sil movb %sil, 164(%rdx) movb 165(%rcx), %sil movb %sil, 165(%rdx) movb 166(%rcx), %sil movb %sil, 166(%rdx) movb 167(%rcx), %cl movb %cl, 167(%rdx) ret L_shake128_absorb34$1: xorq %rsi, %rsi movq %rsi, (%rcx) movq %rsi, 8(%rcx) movq %rsi, 16(%rcx) movq %rsi, 24(%rcx) movq %rsi, 32(%rcx) movq %rsi, 40(%rcx) movq %rsi, 48(%rcx) movq %rsi, 56(%rcx) movq %rsi, 64(%rcx) movq %rsi, 72(%rcx) movq %rsi, 80(%rcx) movq %rsi, 88(%rcx) movq %rsi, 96(%rcx) movq %rsi, 104(%rcx) movq %rsi, 112(%rcx) movq %rsi, 120(%rcx) movq %rsi, 128(%rcx) movq %rsi, 136(%rcx) movq %rsi, 144(%rcx) movq %rsi, 152(%rcx) movq %rsi, 160(%rcx) movq %rsi, 168(%rcx) movq %rsi, 176(%rcx) movq %rsi, 184(%rcx) movq %rsi, 192(%rcx) movb (%rdx), %sil xorb %sil, (%rcx) movb 1(%rdx), %sil xorb %sil, 1(%rcx) movb 2(%rdx), %sil xorb %sil, 2(%rcx) movb 3(%rdx), %sil xorb %sil, 3(%rcx) movb 4(%rdx), %sil xorb %sil, 4(%rcx) movb 5(%rdx), %sil xorb %sil, 5(%rcx) movb 6(%rdx), %sil xorb %sil, 6(%rcx) movb 7(%rdx), %sil xorb %sil, 7(%rcx) movb 8(%rdx), %sil xorb %sil, 8(%rcx) movb 9(%rdx), %sil xorb %sil, 9(%rcx) movb 10(%rdx), %sil xorb %sil, 10(%rcx) movb 11(%rdx), %sil xorb %sil, 11(%rcx) movb 12(%rdx), %sil xorb %sil, 12(%rcx) movb 13(%rdx), %sil xorb %sil, 13(%rcx) movb 14(%rdx), %sil xorb %sil, 14(%rcx) movb 15(%rdx), %sil xorb %sil, 15(%rcx) movb 16(%rdx), %sil xorb %sil, 16(%rcx) movb 17(%rdx), %sil xorb %sil, 17(%rcx) movb 18(%rdx), %sil xorb %sil, 18(%rcx) movb 19(%rdx), %sil xorb %sil, 19(%rcx) movb 20(%rdx), %sil xorb %sil, 20(%rcx) movb 21(%rdx), %sil xorb %sil, 21(%rcx) movb 22(%rdx), %sil xorb %sil, 22(%rcx) movb 23(%rdx), %sil xorb %sil, 23(%rcx) movb 24(%rdx), %sil xorb %sil, 24(%rcx) movb 25(%rdx), %sil xorb %sil, 25(%rcx) movb 26(%rdx), %sil xorb %sil, 26(%rcx) movb 27(%rdx), %sil xorb %sil, 27(%rcx) movb 28(%rdx), %sil xorb %sil, 28(%rcx) movb 29(%rdx), %sil xorb %sil, 29(%rcx) movb 30(%rdx), %sil xorb %sil, 30(%rcx) movb 31(%rdx), %sil xorb %sil, 31(%rcx) movb 32(%rdx), %sil xorb %sil, 32(%rcx) movb 33(%rdx), %dl xorb %dl, 33(%rcx) xorb $31, 34(%rcx) xorb $-128, 167(%rcx) ret L_sha3_512_32$1: movq %rcx, 8(%rsp) leaq 16(%rsp), %rcx xorq %rdx, %rdx movq %rdx, (%rcx) movq %rdx, 8(%rcx) movq %rdx, 16(%rcx) movq %rdx, 24(%rcx) movq %rdx, 32(%rcx) movq %rdx, 40(%rcx) movq %rdx, 48(%rcx) movq %rdx, 56(%rcx) movq %rdx, 64(%rcx) movq %rdx, 72(%rcx) movq %rdx, 80(%rcx) movq %rdx, 88(%rcx) movq %rdx, 96(%rcx) movq %rdx, 104(%rcx) movq %rdx, 112(%rcx) movq %rdx, 120(%rcx) movq %rdx, 128(%rcx) movq %rdx, 136(%rcx) movq %rdx, 144(%rcx) movq %rdx, 152(%rcx) movq %rdx, 160(%rcx) movq %rdx, 168(%rcx) movq %rdx, 176(%rcx) movq %rdx, 184(%rcx) movq %rdx, 192(%rcx) movb (%rax), %dl xorb %dl, (%rcx) movb 1(%rax), %dl xorb %dl, 1(%rcx) movb 2(%rax), %dl xorb %dl, 2(%rcx) movb 3(%rax), %dl xorb %dl, 3(%rcx) movb 4(%rax), %dl xorb %dl, 4(%rcx) movb 5(%rax), %dl xorb %dl, 5(%rcx) movb 6(%rax), %dl xorb %dl, 6(%rcx) movb 7(%rax), %dl xorb %dl, 7(%rcx) movb 8(%rax), %dl xorb %dl, 8(%rcx) movb 9(%rax), %dl xorb %dl, 9(%rcx) movb 10(%rax), %dl xorb %dl, 10(%rcx) movb 11(%rax), %dl xorb %dl, 11(%rcx) movb 12(%rax), %dl xorb %dl, 12(%rcx) movb 13(%rax), %dl xorb %dl, 13(%rcx) movb 14(%rax), %dl xorb %dl, 14(%rcx) movb 15(%rax), %dl xorb %dl, 15(%rcx) movb 16(%rax), %dl xorb %dl, 16(%rcx) movb 17(%rax), %dl xorb %dl, 17(%rcx) movb 18(%rax), %dl xorb %dl, 18(%rcx) movb 19(%rax), %dl xorb %dl, 19(%rcx) movb 20(%rax), %dl xorb %dl, 20(%rcx) movb 21(%rax), %dl xorb %dl, 21(%rcx) movb 22(%rax), %dl xorb %dl, 22(%rcx) movb 23(%rax), %dl xorb %dl, 23(%rcx) movb 24(%rax), %dl xorb %dl, 24(%rcx) movb 25(%rax), %dl xorb %dl, 25(%rcx) movb 26(%rax), %dl xorb %dl, 26(%rcx) movb 27(%rax), %dl xorb %dl, 27(%rcx) movb 28(%rax), %dl xorb %dl, 28(%rcx) movb 29(%rax), %dl xorb %dl, 29(%rcx) movb 30(%rax), %dl xorb %dl, 30(%rcx) movb 31(%rax), %al xorb %al, 31(%rcx) xorb $6, 32(%rcx) xorb $-128, 71(%rcx) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_sha3_512_32$2: leaq 224(%rsp), %rsp movq 8(%rsp), %rax movb (%rcx), %dl movb %dl, (%rax) movb 1(%rcx), %dl movb %dl, 1(%rax) movb 2(%rcx), %dl movb %dl, 2(%rax) movb 3(%rcx), %dl movb %dl, 3(%rax) movb 4(%rcx), %dl movb %dl, 4(%rax) movb 5(%rcx), %dl movb %dl, 5(%rax) movb 6(%rcx), %dl movb %dl, 6(%rax) movb 7(%rcx), %dl movb %dl, 7(%rax) movb 8(%rcx), %dl movb %dl, 8(%rax) movb 9(%rcx), %dl movb %dl, 9(%rax) movb 10(%rcx), %dl movb %dl, 10(%rax) movb 11(%rcx), %dl movb %dl, 11(%rax) movb 12(%rcx), %dl movb %dl, 12(%rax) movb 13(%rcx), %dl movb %dl, 13(%rax) movb 14(%rcx), %dl movb %dl, 14(%rax) movb 15(%rcx), %dl movb %dl, 15(%rax) movb 16(%rcx), %dl movb %dl, 16(%rax) movb 17(%rcx), %dl movb %dl, 17(%rax) movb 18(%rcx), %dl movb %dl, 18(%rax) movb 19(%rcx), %dl movb %dl, 19(%rax) movb 20(%rcx), %dl movb %dl, 20(%rax) movb 21(%rcx), %dl movb %dl, 21(%rax) movb 22(%rcx), %dl movb %dl, 22(%rax) movb 23(%rcx), %dl movb %dl, 23(%rax) movb 24(%rcx), %dl movb %dl, 24(%rax) movb 25(%rcx), %dl movb %dl, 25(%rax) movb 26(%rcx), %dl movb %dl, 26(%rax) movb 27(%rcx), %dl movb %dl, 27(%rax) movb 28(%rcx), %dl movb %dl, 28(%rax) movb 29(%rcx), %dl movb %dl, 29(%rax) movb 30(%rcx), %dl movb %dl, 30(%rax) movb 31(%rcx), %dl movb %dl, 31(%rax) movb 32(%rcx), %dl movb %dl, 32(%rax) movb 33(%rcx), %dl movb %dl, 33(%rax) movb 34(%rcx), %dl movb %dl, 34(%rax) movb 35(%rcx), %dl movb %dl, 35(%rax) movb 36(%rcx), %dl movb %dl, 36(%rax) movb 37(%rcx), %dl movb %dl, 37(%rax) movb 38(%rcx), %dl movb %dl, 38(%rax) movb 39(%rcx), %dl movb %dl, 39(%rax) movb 40(%rcx), %dl movb %dl, 40(%rax) movb 41(%rcx), %dl movb %dl, 41(%rax) movb 42(%rcx), %dl movb %dl, 42(%rax) movb 43(%rcx), %dl movb %dl, 43(%rax) movb 44(%rcx), %dl movb %dl, 44(%rax) movb 45(%rcx), %dl movb %dl, 45(%rax) movb 46(%rcx), %dl movb %dl, 46(%rax) movb 47(%rcx), %dl movb %dl, 47(%rax) movb 48(%rcx), %dl movb %dl, 48(%rax) movb 49(%rcx), %dl movb %dl, 49(%rax) movb 50(%rcx), %dl movb %dl, 50(%rax) movb 51(%rcx), %dl movb %dl, 51(%rax) movb 52(%rcx), %dl movb %dl, 52(%rax) movb 53(%rcx), %dl movb %dl, 53(%rax) movb 54(%rcx), %dl movb %dl, 54(%rax) movb 55(%rcx), %dl movb %dl, 55(%rax) movb 56(%rcx), %dl movb %dl, 56(%rax) movb 57(%rcx), %dl movb %dl, 57(%rax) movb 58(%rcx), %dl movb %dl, 58(%rax) movb 59(%rcx), %dl movb %dl, 59(%rax) movb 60(%rcx), %dl movb %dl, 60(%rax) movb 61(%rcx), %dl movb %dl, 61(%rax) movb 62(%rcx), %dl movb %dl, 62(%rax) movb 63(%rcx), %cl movb %cl, 63(%rax) ret L_shake256_128_33$1: movq %rcx, 8(%rsp) leaq 16(%rsp), %rcx xorq %rsi, %rsi movq %rsi, (%rcx) movq %rsi, 8(%rcx) movq %rsi, 16(%rcx) movq %rsi, 24(%rcx) movq %rsi, 32(%rcx) movq %rsi, 40(%rcx) movq %rsi, 48(%rcx) movq %rsi, 56(%rcx) movq %rsi, 64(%rcx) movq %rsi, 72(%rcx) movq %rsi, 80(%rcx) movq %rsi, 88(%rcx) movq %rsi, 96(%rcx) movq %rsi, 104(%rcx) movq %rsi, 112(%rcx) movq %rsi, 120(%rcx) movq %rsi, 128(%rcx) movq %rsi, 136(%rcx) movq %rsi, 144(%rcx) movq %rsi, 152(%rcx) movq %rsi, 160(%rcx) movq %rsi, 168(%rcx) movq %rsi, 176(%rcx) movq %rsi, 184(%rcx) movq %rsi, 192(%rcx) movb (%rdx), %sil xorb %sil, (%rcx) movb 1(%rdx), %sil xorb %sil, 1(%rcx) movb 2(%rdx), %sil xorb %sil, 2(%rcx) movb 3(%rdx), %sil xorb %sil, 3(%rcx) movb 4(%rdx), %sil xorb %sil, 4(%rcx) movb 5(%rdx), %sil xorb %sil, 5(%rcx) movb 6(%rdx), %sil xorb %sil, 6(%rcx) movb 7(%rdx), %sil xorb %sil, 7(%rcx) movb 8(%rdx), %sil xorb %sil, 8(%rcx) movb 9(%rdx), %sil xorb %sil, 9(%rcx) movb 10(%rdx), %sil xorb %sil, 10(%rcx) movb 11(%rdx), %sil xorb %sil, 11(%rcx) movb 12(%rdx), %sil xorb %sil, 12(%rcx) movb 13(%rdx), %sil xorb %sil, 13(%rcx) movb 14(%rdx), %sil xorb %sil, 14(%rcx) movb 15(%rdx), %sil xorb %sil, 15(%rcx) movb 16(%rdx), %sil xorb %sil, 16(%rcx) movb 17(%rdx), %sil xorb %sil, 17(%rcx) movb 18(%rdx), %sil xorb %sil, 18(%rcx) movb 19(%rdx), %sil xorb %sil, 19(%rcx) movb 20(%rdx), %sil xorb %sil, 20(%rcx) movb 21(%rdx), %sil xorb %sil, 21(%rcx) movb 22(%rdx), %sil xorb %sil, 22(%rcx) movb 23(%rdx), %sil xorb %sil, 23(%rcx) movb 24(%rdx), %sil xorb %sil, 24(%rcx) movb 25(%rdx), %sil xorb %sil, 25(%rcx) movb 26(%rdx), %sil xorb %sil, 26(%rcx) movb 27(%rdx), %sil xorb %sil, 27(%rcx) movb 28(%rdx), %sil xorb %sil, 28(%rcx) movb 29(%rdx), %sil xorb %sil, 29(%rcx) movb 30(%rdx), %sil xorb %sil, 30(%rcx) movb 31(%rdx), %sil xorb %sil, 31(%rcx) movb 32(%rdx), %dl xorb %dl, 32(%rcx) xorb $31, 33(%rcx) xorb $-128, 135(%rcx) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_shake256_128_33$2: leaq 224(%rsp), %rsp movq 8(%rsp), %rdx movb (%rcx), %sil movb %sil, (%rdx) movb 1(%rcx), %sil movb %sil, 1(%rdx) movb 2(%rcx), %sil movb %sil, 2(%rdx) movb 3(%rcx), %sil movb %sil, 3(%rdx) movb 4(%rcx), %sil movb %sil, 4(%rdx) movb 5(%rcx), %sil movb %sil, 5(%rdx) movb 6(%rcx), %sil movb %sil, 6(%rdx) movb 7(%rcx), %sil movb %sil, 7(%rdx) movb 8(%rcx), %sil movb %sil, 8(%rdx) movb 9(%rcx), %sil movb %sil, 9(%rdx) movb 10(%rcx), %sil movb %sil, 10(%rdx) movb 11(%rcx), %sil movb %sil, 11(%rdx) movb 12(%rcx), %sil movb %sil, 12(%rdx) movb 13(%rcx), %sil movb %sil, 13(%rdx) movb 14(%rcx), %sil movb %sil, 14(%rdx) movb 15(%rcx), %sil movb %sil, 15(%rdx) movb 16(%rcx), %sil movb %sil, 16(%rdx) movb 17(%rcx), %sil movb %sil, 17(%rdx) movb 18(%rcx), %sil movb %sil, 18(%rdx) movb 19(%rcx), %sil movb %sil, 19(%rdx) movb 20(%rcx), %sil movb %sil, 20(%rdx) movb 21(%rcx), %sil movb %sil, 21(%rdx) movb 22(%rcx), %sil movb %sil, 22(%rdx) movb 23(%rcx), %sil movb %sil, 23(%rdx) movb 24(%rcx), %sil movb %sil, 24(%rdx) movb 25(%rcx), %sil movb %sil, 25(%rdx) movb 26(%rcx), %sil movb %sil, 26(%rdx) movb 27(%rcx), %sil movb %sil, 27(%rdx) movb 28(%rcx), %sil movb %sil, 28(%rdx) movb 29(%rcx), %sil movb %sil, 29(%rdx) movb 30(%rcx), %sil movb %sil, 30(%rdx) movb 31(%rcx), %sil movb %sil, 31(%rdx) movb 32(%rcx), %sil movb %sil, 32(%rdx) movb 33(%rcx), %sil movb %sil, 33(%rdx) movb 34(%rcx), %sil movb %sil, 34(%rdx) movb 35(%rcx), %sil movb %sil, 35(%rdx) movb 36(%rcx), %sil movb %sil, 36(%rdx) movb 37(%rcx), %sil movb %sil, 37(%rdx) movb 38(%rcx), %sil movb %sil, 38(%rdx) movb 39(%rcx), %sil movb %sil, 39(%rdx) movb 40(%rcx), %sil movb %sil, 40(%rdx) movb 41(%rcx), %sil movb %sil, 41(%rdx) movb 42(%rcx), %sil movb %sil, 42(%rdx) movb 43(%rcx), %sil movb %sil, 43(%rdx) movb 44(%rcx), %sil movb %sil, 44(%rdx) movb 45(%rcx), %sil movb %sil, 45(%rdx) movb 46(%rcx), %sil movb %sil, 46(%rdx) movb 47(%rcx), %sil movb %sil, 47(%rdx) movb 48(%rcx), %sil movb %sil, 48(%rdx) movb 49(%rcx), %sil movb %sil, 49(%rdx) movb 50(%rcx), %sil movb %sil, 50(%rdx) movb 51(%rcx), %sil movb %sil, 51(%rdx) movb 52(%rcx), %sil movb %sil, 52(%rdx) movb 53(%rcx), %sil movb %sil, 53(%rdx) movb 54(%rcx), %sil movb %sil, 54(%rdx) movb 55(%rcx), %sil movb %sil, 55(%rdx) movb 56(%rcx), %sil movb %sil, 56(%rdx) movb 57(%rcx), %sil movb %sil, 57(%rdx) movb 58(%rcx), %sil movb %sil, 58(%rdx) movb 59(%rcx), %sil movb %sil, 59(%rdx) movb 60(%rcx), %sil movb %sil, 60(%rdx) movb 61(%rcx), %sil movb %sil, 61(%rdx) movb 62(%rcx), %sil movb %sil, 62(%rdx) movb 63(%rcx), %sil movb %sil, 63(%rdx) movb 64(%rcx), %sil movb %sil, 64(%rdx) movb 65(%rcx), %sil movb %sil, 65(%rdx) movb 66(%rcx), %sil movb %sil, 66(%rdx) movb 67(%rcx), %sil movb %sil, 67(%rdx) movb 68(%rcx), %sil movb %sil, 68(%rdx) movb 69(%rcx), %sil movb %sil, 69(%rdx) movb 70(%rcx), %sil movb %sil, 70(%rdx) movb 71(%rcx), %sil movb %sil, 71(%rdx) movb 72(%rcx), %sil movb %sil, 72(%rdx) movb 73(%rcx), %sil movb %sil, 73(%rdx) movb 74(%rcx), %sil movb %sil, 74(%rdx) movb 75(%rcx), %sil movb %sil, 75(%rdx) movb 76(%rcx), %sil movb %sil, 76(%rdx) movb 77(%rcx), %sil movb %sil, 77(%rdx) movb 78(%rcx), %sil movb %sil, 78(%rdx) movb 79(%rcx), %sil movb %sil, 79(%rdx) movb 80(%rcx), %sil movb %sil, 80(%rdx) movb 81(%rcx), %sil movb %sil, 81(%rdx) movb 82(%rcx), %sil movb %sil, 82(%rdx) movb 83(%rcx), %sil movb %sil, 83(%rdx) movb 84(%rcx), %sil movb %sil, 84(%rdx) movb 85(%rcx), %sil movb %sil, 85(%rdx) movb 86(%rcx), %sil movb %sil, 86(%rdx) movb 87(%rcx), %sil movb %sil, 87(%rdx) movb 88(%rcx), %sil movb %sil, 88(%rdx) movb 89(%rcx), %sil movb %sil, 89(%rdx) movb 90(%rcx), %sil movb %sil, 90(%rdx) movb 91(%rcx), %sil movb %sil, 91(%rdx) movb 92(%rcx), %sil movb %sil, 92(%rdx) movb 93(%rcx), %sil movb %sil, 93(%rdx) movb 94(%rcx), %sil movb %sil, 94(%rdx) movb 95(%rcx), %sil movb %sil, 95(%rdx) movb 96(%rcx), %sil movb %sil, 96(%rdx) movb 97(%rcx), %sil movb %sil, 97(%rdx) movb 98(%rcx), %sil movb %sil, 98(%rdx) movb 99(%rcx), %sil movb %sil, 99(%rdx) movb 100(%rcx), %sil movb %sil, 100(%rdx) movb 101(%rcx), %sil movb %sil, 101(%rdx) movb 102(%rcx), %sil movb %sil, 102(%rdx) movb 103(%rcx), %sil movb %sil, 103(%rdx) movb 104(%rcx), %sil movb %sil, 104(%rdx) movb 105(%rcx), %sil movb %sil, 105(%rdx) movb 106(%rcx), %sil movb %sil, 106(%rdx) movb 107(%rcx), %sil movb %sil, 107(%rdx) movb 108(%rcx), %sil movb %sil, 108(%rdx) movb 109(%rcx), %sil movb %sil, 109(%rdx) movb 110(%rcx), %sil movb %sil, 110(%rdx) movb 111(%rcx), %sil movb %sil, 111(%rdx) movb 112(%rcx), %sil movb %sil, 112(%rdx) movb 113(%rcx), %sil movb %sil, 113(%rdx) movb 114(%rcx), %sil movb %sil, 114(%rdx) movb 115(%rcx), %sil movb %sil, 115(%rdx) movb 116(%rcx), %sil movb %sil, 116(%rdx) movb 117(%rcx), %sil movb %sil, 117(%rdx) movb 118(%rcx), %sil movb %sil, 118(%rdx) movb 119(%rcx), %sil movb %sil, 119(%rdx) movb 120(%rcx), %sil movb %sil, 120(%rdx) movb 121(%rcx), %sil movb %sil, 121(%rdx) movb 122(%rcx), %sil movb %sil, 122(%rdx) movb 123(%rcx), %sil movb %sil, 123(%rdx) movb 124(%rcx), %sil movb %sil, 124(%rdx) movb 125(%rcx), %sil movb %sil, 125(%rdx) movb 126(%rcx), %sil movb %sil, 126(%rdx) movb 127(%rcx), %cl movb %cl, 127(%rdx) ret L_keccakf1600_ref1$1: leaq glob_data + 0(%rip), %rdx movq %rdx, 8(%rsp) leaq 32(%rsp), %rdx movq $0, %r11 jmp L_keccakf1600_ref1$2 L_keccakf1600_ref1$3: movq %r11, 16(%rsp) movq 8(%rsp), %rsi movq (%rsi,%r11,8), %rsi movq %rsi, 24(%rsp) movq (%rcx), %r10 movq 8(%rcx), %r9 movq 16(%rcx), %rbx movq 24(%rcx), %rbp movq 32(%rcx), %r12 xorq 40(%rcx), %r10 xorq 48(%rcx), %r9 xorq 56(%rcx), %rbx xorq 64(%rcx), %rbp xorq 72(%rcx), %r12 xorq 80(%rcx), %r10 xorq 88(%rcx), %r9 xorq 96(%rcx), %rbx xorq 104(%rcx), %rbp xorq 112(%rcx), %r12 xorq 120(%rcx), %r10 xorq 128(%rcx), %r9 xorq 136(%rcx), %rbx xorq 144(%rcx), %rbp xorq 152(%rcx), %r12 xorq 160(%rcx), %r10 xorq 168(%rcx), %r9 xorq 176(%rcx), %rbx xorq 184(%rcx), %rbp xorq 192(%rcx), %r12 movq %r9, %rsi rolq $1, %rsi xorq %r12, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r10, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r9, %r8 movq %r12, %r9 rolq $1, %r9 xorq %rbx, %r9 rolq $1, %r10 xorq %rbp, %r10 movq (%rcx), %rbx xorq %rsi, %rbx movq 48(%rcx), %rbp xorq %rdi, %rbp rolq $44, %rbp movq 96(%rcx), %r12 xorq %r8, %r12 rolq $43, %r12 movq 144(%rcx), %r13 xorq %r9, %r13 rolq $21, %r13 movq 192(%rcx), %r14 xorq %r10, %r14 rolq $14, %r14 movq %rbp, %r15 notq %r15 andq %r12, %r15 xorq %rbx, %r15 xorq 24(%rsp), %r15 movq %r15, (%rdx) movq %r12, %r15 notq %r15 andq %r13, %r15 xorq %rbp, %r15 movq %r15, 8(%rdx) movq %r13, %r15 notq %r15 andq %r14, %r15 xorq %r12, %r15 movq %r15, 16(%rdx) movq %r14, %r12 notq %r12 andq %rbx, %r12 xorq %r13, %r12 movq %r12, 24(%rdx) notq %rbx andq %rbp, %rbx xorq %r14, %rbx movq %rbx, 32(%rdx) movq 24(%rcx), %rbx xorq %r9, %rbx rolq $28, %rbx movq 72(%rcx), %rbp xorq %r10, %rbp rolq $20, %rbp movq 80(%rcx), %r12 xorq %rsi, %r12 rolq $3, %r12 movq 128(%rcx), %r13 xorq %rdi, %r13 rolq $45, %r13 movq 176(%rcx), %r14 xorq %r8, %r14 rolq $61, %r14 movq %rbp, %r15 notq %r15 andq %r12, %r15 xorq %rbx, %r15 movq %r15, 40(%rdx) movq %r12, %r15 notq %r15 andq %r13, %r15 xorq %rbp, %r15 movq %r15, 48(%rdx) movq %r13, %r15 notq %r15 andq %r14, %r15 xorq %r12, %r15 movq %r15, 56(%rdx) movq %r14, %r12 notq %r12 andq %rbx, %r12 xorq %r13, %r12 movq %r12, 64(%rdx) notq %rbx andq %rbp, %rbx xorq %r14, %rbx movq %rbx, 72(%rdx) movq 8(%rcx), %rbx xorq %rdi, %rbx rolq $1, %rbx movq 56(%rcx), %rbp xorq %r8, %rbp rolq $6, %rbp movq 104(%rcx), %r12 xorq %r9, %r12 rolq $25, %r12 movq 152(%rcx), %r13 xorq %r10, %r13 rolq $8, %r13 movq 160(%rcx), %r14 xorq %rsi, %r14 rolq $18, %r14 movq %rbp, %r15 notq %r15 andq %r12, %r15 xorq %rbx, %r15 movq %r15, 80(%rdx) movq %r12, %r15 notq %r15 andq %r13, %r15 xorq %rbp, %r15 movq %r15, 88(%rdx) movq %r13, %r15 notq %r15 andq %r14, %r15 xorq %r12, %r15 movq %r15, 96(%rdx) movq %r14, %r12 notq %r12 andq %rbx, %r12 xorq %r13, %r12 movq %r12, 104(%rdx) notq %rbx andq %rbp, %rbx xorq %r14, %rbx movq %rbx, 112(%rdx) movq 32(%rcx), %rbx xorq %r10, %rbx rolq $27, %rbx movq 40(%rcx), %rbp xorq %rsi, %rbp rolq $36, %rbp movq 88(%rcx), %r12 xorq %rdi, %r12 rolq $10, %r12 movq 136(%rcx), %r13 xorq %r8, %r13 rolq $15, %r13 movq 184(%rcx), %r14 xorq %r9, %r14 rolq $56, %r14 movq %rbp, %r15 notq %r15 andq %r12, %r15 xorq %rbx, %r15 movq %r15, 120(%rdx) movq %r12, %r15 notq %r15 andq %r13, %r15 xorq %rbp, %r15 movq %r15, 128(%rdx) movq %r13, %r15 notq %r15 andq %r14, %r15 xorq %r12, %r15 movq %r15, 136(%rdx) movq %r14, %r12 notq %r12 andq %rbx, %r12 xorq %r13, %r12 movq %r12, 144(%rdx) notq %rbx andq %rbp, %rbx xorq %r14, %rbx movq %rbx, 152(%rdx) movq 16(%rcx), %rbx xorq %r8, %rbx rolq $62, %rbx movq 64(%rcx), %r8 xorq %r9, %r8 rolq $55, %r8 movq 112(%rcx), %r9 xorq %r10, %r9 rolq $39, %r9 movq 120(%rcx), %r10 xorq %rsi, %r10 rolq $41, %r10 movq 168(%rcx), %rsi xorq %rdi, %rsi rolq $2, %rsi movq %r8, %rdi notq %rdi andq %r9, %rdi xorq %rbx, %rdi movq %rdi, 160(%rdx) movq %r9, %rdi notq %rdi andq %r10, %rdi xorq %r8, %rdi movq %rdi, 168(%rdx) movq %r10, %rdi notq %rdi andq %rsi, %rdi xorq %r9, %rdi movq %rdi, 176(%rdx) movq %rsi, %rdi notq %rdi andq %rbx, %rdi xorq %r10, %rdi movq %rdi, 184(%rdx) notq %rbx andq %r8, %rbx xorq %rsi, %rbx movq %rbx, 192(%rdx) movq 8(%rsp), %rsi movq 8(%rsi,%r11,8), %rsi movq %rsi, 24(%rsp) movq (%rdx), %r10 movq 8(%rdx), %r9 movq 16(%rdx), %r11 movq 24(%rdx), %rbx movq 32(%rdx), %rbp xorq 40(%rdx), %r10 xorq 48(%rdx), %r9 xorq 56(%rdx), %r11 xorq 64(%rdx), %rbx xorq 72(%rdx), %rbp xorq 80(%rdx), %r10 xorq 88(%rdx), %r9 xorq 96(%rdx), %r11 xorq 104(%rdx), %rbx xorq 112(%rdx), %rbp xorq 120(%rdx), %r10 xorq 128(%rdx), %r9 xorq 136(%rdx), %r11 xorq 144(%rdx), %rbx xorq 152(%rdx), %rbp xorq 160(%rdx), %r10 xorq 168(%rdx), %r9 xorq 176(%rdx), %r11 xorq 184(%rdx), %rbx xorq 192(%rdx), %rbp movq %r9, %rsi rolq $1, %rsi xorq %rbp, %rsi movq %r11, %rdi rolq $1, %rdi xorq %r10, %rdi movq %rbx, %r8 rolq $1, %r8 xorq %r9, %r8 movq %rbp, %r9 rolq $1, %r9 xorq %r11, %r9 rolq $1, %r10 xorq %rbx, %r10 movq (%rdx), %r11 xorq %rsi, %r11 movq 48(%rdx), %rbx xorq %rdi, %rbx rolq $44, %rbx movq 96(%rdx), %rbp xorq %r8, %rbp rolq $43, %rbp movq 144(%rdx), %r12 xorq %r9, %r12 rolq $21, %r12 movq 192(%rdx), %r13 xorq %r10, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq 24(%rsp), %r14 movq %r14, (%rcx) movq %rbp, %r14 notq %r14 andq %r12, %r14 xorq %rbx, %r14 movq %r14, 8(%rcx) movq %r12, %r14 notq %r14 andq %r13, %r14 xorq %rbp, %r14 movq %r14, 16(%rcx) movq %r13, %rbp notq %rbp andq %r11, %rbp xorq %r12, %rbp movq %rbp, 24(%rcx) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 32(%rcx) movq 24(%rdx), %r11 xorq %r9, %r11 rolq $28, %r11 movq 72(%rdx), %rbx xorq %r10, %rbx rolq $20, %rbx movq 80(%rdx), %rbp xorq %rsi, %rbp rolq $3, %rbp movq 128(%rdx), %r12 xorq %rdi, %r12 rolq $45, %r12 movq 176(%rdx), %r13 xorq %r8, %r13 rolq $61, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 movq %r14, 40(%rcx) movq %rbp, %r14 notq %r14 andq %r12, %r14 xorq %rbx, %r14 movq %r14, 48(%rcx) movq %r12, %r14 notq %r14 andq %r13, %r14 xorq %rbp, %r14 movq %r14, 56(%rcx) movq %r13, %rbp notq %rbp andq %r11, %rbp xorq %r12, %rbp movq %rbp, 64(%rcx) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 72(%rcx) movq 8(%rdx), %r11 xorq %rdi, %r11 rolq $1, %r11 movq 56(%rdx), %rbx xorq %r8, %rbx rolq $6, %rbx movq 104(%rdx), %rbp xorq %r9, %rbp rolq $25, %rbp movq 152(%rdx), %r12 xorq %r10, %r12 rolq $8, %r12 movq 160(%rdx), %r13 xorq %rsi, %r13 rolq $18, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 movq %r14, 80(%rcx) movq %rbp, %r14 notq %r14 andq %r12, %r14 xorq %rbx, %r14 movq %r14, 88(%rcx) movq %r12, %r14 notq %r14 andq %r13, %r14 xorq %rbp, %r14 movq %r14, 96(%rcx) movq %r13, %rbp notq %rbp andq %r11, %rbp xorq %r12, %rbp movq %rbp, 104(%rcx) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 112(%rcx) movq 32(%rdx), %r11 xorq %r10, %r11 rolq $27, %r11 movq 40(%rdx), %rbx xorq %rsi, %rbx rolq $36, %rbx movq 88(%rdx), %rbp xorq %rdi, %rbp rolq $10, %rbp movq 136(%rdx), %r12 xorq %r8, %r12 rolq $15, %r12 movq 184(%rdx), %r13 xorq %r9, %r13 rolq $56, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 movq %r14, 120(%rcx) movq %rbp, %r14 notq %r14 andq %r12, %r14 xorq %rbx, %r14 movq %r14, 128(%rcx) movq %r12, %r14 notq %r14 andq %r13, %r14 xorq %rbp, %r14 movq %r14, 136(%rcx) movq %r13, %rbp notq %rbp andq %r11, %rbp xorq %r12, %rbp movq %rbp, 144(%rcx) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 152(%rcx) movq 16(%rdx), %r11 xorq %r8, %r11 rolq $62, %r11 movq 64(%rdx), %r8 xorq %r9, %r8 rolq $55, %r8 movq 112(%rdx), %r9 xorq %r10, %r9 rolq $39, %r9 movq 120(%rdx), %r10 xorq %rsi, %r10 rolq $41, %r10 movq 168(%rdx), %rsi xorq %rdi, %rsi rolq $2, %rsi movq %r8, %rdi notq %rdi andq %r9, %rdi xorq %r11, %rdi movq %rdi, 160(%rcx) movq %r9, %rdi notq %rdi andq %r10, %rdi xorq %r8, %rdi movq %rdi, 168(%rcx) movq %r10, %rdi notq %rdi andq %rsi, %rdi xorq %r9, %rdi movq %rdi, 176(%rcx) movq %rsi, %rdi notq %rdi andq %r11, %rdi xorq %r10, %rdi movq %rdi, 184(%rcx) notq %r11 andq %r8, %r11 xorq %rsi, %r11 movq %r11, 192(%rcx) movq 16(%rsp), %r11 addq $2, %r11 L_keccakf1600_ref1$2: cmpq $23, %r11 jb L_keccakf1600_ref1$3 ret .data .p2align 5 _glob_data: glob_data: .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -91 .byte 6 .byte 15 .byte 7 .byte -76 .byte 5 .byte 67 .byte 9 .byte 34 .byte 9 .byte 29 .byte 9 .byte 52 .byte 1 .byte 108 .byte 0 .byte 35 .byte 11 .byte 102 .byte 3 .byte 86 .byte 3 .byte -26 .byte 5 .byte -25 .byte 9 .byte -2 .byte 4 .byte -6 .byte 5 .byte -95 .byte 4 .byte 123 .byte 6 .byte -93 .byte 4 .byte 37 .byte 12 .byte 106 .byte 3 .byte 55 .byte 5 .byte 63 .byte 8 .byte -120 .byte 0 .byte -65 .byte 4 .byte -127 .byte 11 .byte -71 .byte 5 .byte 5 .byte 5 .byte -41 .byte 7 .byte -97 .byte 10 .byte -90 .byte 10 .byte -72 .byte 8 .byte -48 .byte 9 .byte 75 .byte 0 .byte -100 .byte 0 .byte -72 .byte 11 .byte 95 .byte 11 .byte -92 .byte 11 .byte 104 .byte 3 .byte 125 .byte 10 .byte 54 .byte 6 .byte -94 .byte 8 .byte 90 .byte 2 .byte 54 .byte 7 .byte 9 .byte 3 .byte -109 .byte 0 .byte 122 .byte 8 .byte -9 .byte 9 .byte -10 .byte 0 .byte -116 .byte 6 .byte -37 .byte 6 .byte -52 .byte 1 .byte 35 .byte 1 .byte -21 .byte 0 .byte 80 .byte 12 .byte -74 .byte 10 .byte 91 .byte 11 .byte -104 .byte 12 .byte -13 .byte 6 .byte -102 .byte 9 .byte -29 .byte 4 .byte -74 .byte 9 .byte -42 .byte 10 .byte 83 .byte 11 .byte 79 .byte 4 .byte -5 .byte 4 .byte 92 .byte 10 .byte 41 .byte 4 .byte 65 .byte 11 .byte -43 .byte 2 .byte -28 .byte 5 .byte 64 .byte 9 .byte -114 .byte 1 .byte -73 .byte 3 .byte -9 .byte 0 .byte -115 .byte 5 .byte -106 .byte 12 .byte -61 .byte 9 .byte 15 .byte 1 .byte 90 .byte 0 .byte 85 .byte 3 .byte 68 .byte 7 .byte -125 .byte 12 .byte -118 .byte 4 .byte 82 .byte 6 .byte -102 .byte 2 .byte 64 .byte 1 .byte 8 .byte 0 .byte -3 .byte 10 .byte 8 .byte 6 .byte 26 .byte 1 .byte 46 .byte 7 .byte 13 .byte 5 .byte 10 .byte 9 .byte 40 .byte 2 .byte 117 .byte 10 .byte 58 .byte 8 .byte 35 .byte 6 .byte -51 .byte 0 .byte 102 .byte 11 .byte 6 .byte 6 .byte -95 .byte 10 .byte 37 .byte 10 .byte 8 .byte 9 .byte -87 .byte 2 .byte -126 .byte 0 .byte 66 .byte 6 .byte 79 .byte 7 .byte 61 .byte 3 .byte -126 .byte 11 .byte -7 .byte 11 .byte 45 .byte 5 .byte -60 .byte 10 .byte 69 .byte 7 .byte -62 .byte 5 .byte -78 .byte 4 .byte 63 .byte 9 .byte 75 .byte 12 .byte -40 .byte 6 .byte -109 .byte 10 .byte -85 .byte 0 .byte 55 .byte 12 .byte -30 .byte 11 .byte 115 .byte 7 .byte 44 .byte 7 .byte -19 .byte 5 .byte 103 .byte 1 .byte -10 .byte 2 .byte -95 .byte 5 .byte -19 .byte 8 .byte 11 .byte 10 .byte -102 .byte 11 .byte 20 .byte 7 .byte -43 .byte 5 .byte -114 .byte 5 .byte 31 .byte 1 .byte -54 .byte 0 .byte 86 .byte 12 .byte 110 .byte 2 .byte 41 .byte 6 .byte -74 .byte 0 .byte -62 .byte 3 .byte 79 .byte 8 .byte 63 .byte 7 .byte -68 .byte 5 .byte 61 .byte 2 .byte -44 .byte 7 .byte 8 .byte 1 .byte 127 .byte 1 .byte -60 .byte 9 .byte -78 .byte 5 .byte -65 .byte 6 .byte 127 .byte 12 .byte 88 .byte 10 .byte -7 .byte 3 .byte -36 .byte 2 .byte 96 .byte 2 .byte -5 .byte 6 .byte -101 .byte 1 .byte 52 .byte 12 .byte -34 .byte 6 .byte -57 .byte 4 .byte -116 .byte 2 .byte -39 .byte 10 .byte -9 .byte 3 .byte -12 .byte 7 .byte -45 .byte 5 .byte -25 .byte 11 .byte -7 .byte 6 .byte 4 .byte 2 .byte -7 .byte 12 .byte -63 .byte 11 .byte 103 .byte 10 .byte -81 .byte 6 .byte 119 .byte 8 .byte 126 .byte 0 .byte -67 .byte 5 .byte -84 .byte 9 .byte -89 .byte 12 .byte -14 .byte 11 .byte 62 .byte 3 .byte 107 .byte 0 .byte 116 .byte 7 .byte 10 .byte 12 .byte 74 .byte 9 .byte 115 .byte 11 .byte -63 .byte 3 .byte 29 .byte 7 .byte 44 .byte 10 .byte -64 .byte 1 .byte -40 .byte 8 .byte -91 .byte 2 .byte 6 .byte 8 .byte -78 .byte 8 .byte -82 .byte 1 .byte 43 .byte 2 .byte 75 .byte 3 .byte 30 .byte 8 .byte 103 .byte 3 .byte 14 .byte 6 .byte 105 .byte 0 .byte -90 .byte 1 .byte 75 .byte 2 .byte -79 .byte 0 .byte 22 .byte 12 .byte -34 .byte 11 .byte 53 .byte 11 .byte 38 .byte 6 .byte 117 .byte 6 .byte 11 .byte 12 .byte 10 .byte 3 .byte -121 .byte 4 .byte 110 .byte 12 .byte -8 .byte 9 .byte -53 .byte 5 .byte -89 .byte 10 .byte 95 .byte 4 .byte -53 .byte 6 .byte -124 .byte 2 .byte -103 .byte 9 .byte 93 .byte 1 .byte -94 .byte 1 .byte 73 .byte 1 .byte 101 .byte 12 .byte -74 .byte 12 .byte 49 .byte 3 .byte 73 .byte 4 .byte 91 .byte 2 .byte 98 .byte 2 .byte 42 .byte 5 .byte -4 .byte 7 .byte 72 .byte 7 .byte -128 .byte 1 .byte 66 .byte 8 .byte 121 .byte 12 .byte -62 .byte 4 .byte -54 .byte 7 .byte -105 .byte 9 .byte -36 .byte 0 .byte 94 .byte 8 .byte -122 .byte 6 .byte 96 .byte 8 .byte 7 .byte 7 .byte 3 .byte 8 .byte 26 .byte 3 .byte 27 .byte 7 .byte -85 .byte 9 .byte -101 .byte 9 .byte -34 .byte 1 .byte -107 .byte 12 .byte -51 .byte 11 .byte -28 .byte 3 .byte -33 .byte 3 .byte -66 .byte 3 .byte 77 .byte 7 .byte -14 .byte 5 .byte 92 .byte 6
usenix-security-verdict/verdict
31,350
deps/libcrux/sys/libjade/jazz/sha3_384_ref.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_384_amd64_ref .globl jade_hash_sha3_384_amd64_ref _jade_hash_sha3_384_amd64_ref: jade_hash_sha3_384_amd64_ref: movq %rsp, %rax leaq -48(%rsp), %rsp andq $-8, %rsp movq %rax, 40(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq %r14, 32(%rsp) movq $48, %rcx movb $6, %r8b movq $104, %rax leaq -448(%rsp), %rsp call L_keccak1600_ref$1 Ljade_hash_sha3_384_amd64_ref$1: leaq 448(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %r14 movq 40(%rsp), %rsp ret L_keccak1600_ref$1: movq %rdi, 8(%rsp) movq %rcx, 16(%rsp) movb %r8b, 448(%rsp) xorq %rcx, %rcx movq %rcx, 48(%rsp) movq %rcx, 56(%rsp) movq %rcx, 64(%rsp) movq %rcx, 72(%rsp) movq %rcx, 80(%rsp) movq %rcx, 88(%rsp) movq %rcx, 96(%rsp) movq %rcx, 104(%rsp) movq %rcx, 112(%rsp) movq %rcx, 120(%rsp) movq %rcx, 128(%rsp) movq %rcx, 136(%rsp) movq %rcx, 144(%rsp) movq %rcx, 152(%rsp) movq %rcx, 160(%rsp) movq %rcx, 168(%rsp) movq %rcx, 176(%rsp) movq %rcx, 184(%rsp) movq %rcx, 192(%rsp) movq %rcx, 200(%rsp) movq %rcx, 208(%rsp) movq %rcx, 216(%rsp) movq %rcx, 224(%rsp) movq %rcx, 232(%rsp) movq %rcx, 240(%rsp) jmp L_keccak1600_ref$16 L_keccak1600_ref$17: movq %rax, %rcx shrq $3, %rcx movq $0, %rdi jmp L_keccak1600_ref$19 L_keccak1600_ref$20: movq (%rsi,%rdi,8), %r8 xorq %r8, 48(%rsp,%rdi,8) incq %rdi L_keccak1600_ref$19: cmpq %rcx, %rdi jb L_keccak1600_ref$20 addq %rax, %rsi subq %rax, %rdx movq %rsi, 24(%rsp) movq %rdx, 32(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$18: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$18 movq 24(%rsp), %rsi movq 32(%rsp), %rdx movq 40(%rsp), %rax L_keccak1600_ref$16: cmpq %rax, %rdx jnb L_keccak1600_ref$17 movb 448(%rsp), %cl movq %rdx, %rdi shrq $3, %rdi movq $0, %r8 jmp L_keccak1600_ref$14 L_keccak1600_ref$15: movq (%rsi,%r8,8), %r9 xorq %r9, 48(%rsp,%r8,8) incq %r8 L_keccak1600_ref$14: cmpq %rdi, %r8 jb L_keccak1600_ref$15 shlq $3, %r8 jmp L_keccak1600_ref$12 L_keccak1600_ref$13: movb (%rsi,%r8), %dil xorb %dil, 48(%rsp,%r8) incq %r8 L_keccak1600_ref$12: cmpq %rdx, %r8 jb L_keccak1600_ref$13 xorb %cl, 48(%rsp,%r8) movq %rax, %rcx addq $-1, %rcx xorb $-128, 48(%rsp,%rcx) movq 16(%rsp), %rdx jmp L_keccak1600_ref$7 L_keccak1600_ref$8: movq %rdx, 16(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$11: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$11 movq 8(%rsp), %rcx movq 16(%rsp), %rdx movq 40(%rsp), %rax movq %rax, %rsi shrq $3, %rsi movq $0, %rdi jmp L_keccak1600_ref$9 L_keccak1600_ref$10: movq 48(%rsp,%rdi,8), %r8 movq %r8, (%rcx,%rdi,8) incq %rdi L_keccak1600_ref$9: cmpq %rsi, %rdi jb L_keccak1600_ref$10 addq %rax, %rcx subq %rax, %rdx movq %rcx, 8(%rsp) L_keccak1600_ref$7: cmpq %rax, %rdx jnbe L_keccak1600_ref$8 movq %rdx, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$6: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$6 movq 8(%rsp), %rax movq 40(%rsp), %rcx movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_ref$4 L_keccak1600_ref$5: movq 48(%rsp,%rsi,8), %rdi movq %rdi, (%rax,%rsi,8) incq %rsi L_keccak1600_ref$4: cmpq %rdx, %rsi jb L_keccak1600_ref$5 shlq $3, %rsi jmp L_keccak1600_ref$2 L_keccak1600_ref$3: movb 48(%rsp,%rsi), %dl movb %dl, (%rax,%rsi) incq %rsi L_keccak1600_ref$2: cmpq %rcx, %rsi jb L_keccak1600_ref$3 ret .data .p2align 5 _glob_data: glob_data: .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128
usenix-security-verdict/verdict
34,209
deps/libcrux/sys/libjade/jazz/sha3_384_avx2.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_384_amd64_avx2 .globl jade_hash_sha3_384_amd64_avx2 _jade_hash_sha3_384_amd64_avx2: jade_hash_sha3_384_amd64_avx2: movq %rsp, %rax leaq -40(%rsp), %rsp andq $-32, %rsp movq %rax, 32(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq $48, %r9 movb $6, %al movq $104, %rcx leaq -224(%rsp), %rsp leaq Ljade_hash_sha3_384_amd64_avx2$1(%rip), %r10 jmp L_keccak1600_avx2$1 Ljade_hash_sha3_384_amd64_avx2$1: leaq 224(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %rsp ret L_keccak1600_avx2$1: vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm5, %ymm5, %ymm5 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm2, %ymm2, %ymm2 leaq glob_data + 1152(%rip), %r8 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) jmp L_keccak1600_avx2$16 L_keccak1600_avx2$17: movq %rcx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$19 L_keccak1600_avx2$20: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$19: cmpq %r11, %rbx jb L_keccak1600_avx2$20 movq (%rsp), %r11 movq %r11, 8(%rsp) movq %r11, 16(%rsp) movq %r11, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 addq %rcx, %rsi subq %rcx, %rdx leaq glob_data + 384(%rip), %r11 movq $0, %rbx leaq glob_data + 192(%rip), %rbp leaq glob_data + 0(%rip), %r12 movq $24, %r13 L_keccak1600_avx2$18: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rbp), %ymm4, %ymm7 vpsrlvq (%r12), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rbp), %ymm0, %ymm7 vpsrlvq 64(%r12), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rbp), %ymm5, %ymm7 vpsrlvq 96(%r12), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rbp), %ymm1, %ymm5 vpsrlvq 128(%r12), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rbp), %ymm2, %ymm0 vpsrlvq 160(%r12), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rbp), %ymm0, %ymm1 vpsrlvq 32(%r12), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%r11,%rbx), %ymm6, %ymm6 addq $32, %rbx decq %r13 jne L_keccak1600_avx2$18 L_keccak1600_avx2$16: cmpq %rcx, %rdx jnb L_keccak1600_avx2$17 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) movq %rdx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$14 L_keccak1600_avx2$15: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$14: cmpq %r11, %rbx jb L_keccak1600_avx2$15 movq (%r8,%rbx,8), %r11 shlq $3, %r11 shlq $3, %rbx jmp L_keccak1600_avx2$12 L_keccak1600_avx2$13: movb (%rsi,%rbx), %bpl movb %bpl, (%rsp,%r11) incq %rbx incq %r11 L_keccak1600_avx2$12: cmpq %rdx, %rbx jb L_keccak1600_avx2$13 movb %al, (%rsp,%r11) movq %rcx, %rax addq $-1, %rax shrq $3, %rax movq (%r8,%rax,8), %rax shlq $3, %rax movq %rcx, %rdx addq $-1, %rdx andq $7, %rdx addq %rdx, %rax xorb $-128, (%rsp,%rax) movq (%rsp), %rax movq %rax, 8(%rsp) movq %rax, 16(%rsp) movq %rax, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 leaq glob_data + 1152(%rip), %rax jmp L_keccak1600_avx2$7 L_keccak1600_avx2$8: leaq glob_data + 384(%rip), %rdx movq $0, %rsi leaq glob_data + 192(%rip), %r8 leaq glob_data + 0(%rip), %r11 movq $24, %rbx L_keccak1600_avx2$11: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r8), %ymm4, %ymm7 vpsrlvq (%r11), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%r8), %ymm0, %ymm7 vpsrlvq 64(%r11), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%r8), %ymm5, %ymm7 vpsrlvq 96(%r11), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%r8), %ymm1, %ymm5 vpsrlvq 128(%r11), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%r8), %ymm2, %ymm0 vpsrlvq 160(%r11), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%r8), %ymm0, %ymm1 vpsrlvq 32(%r11), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rdx,%rsi), %ymm6, %ymm6 addq $32, %rsi decq %rbx jne L_keccak1600_avx2$11 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_avx2$9 L_keccak1600_avx2$10: movq (%rax,%rsi,8), %r8 movq (%rsp,%r8,8), %r8 movq %r8, (%rdi,%rsi,8) incq %rsi L_keccak1600_avx2$9: cmpq %rdx, %rsi jb L_keccak1600_avx2$10 addq %rcx, %rdi subq %rcx, %r9 L_keccak1600_avx2$7: cmpq %rcx, %r9 jnbe L_keccak1600_avx2$8 leaq glob_data + 384(%rip), %rcx movq $0, %rdx leaq glob_data + 192(%rip), %rsi leaq glob_data + 0(%rip), %r8 movq $24, %r11 L_keccak1600_avx2$6: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm4, %ymm7 vpsrlvq (%r8), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rsi), %ymm0, %ymm7 vpsrlvq 64(%r8), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rsi), %ymm5, %ymm7 vpsrlvq 96(%r8), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rsi), %ymm1, %ymm5 vpsrlvq 128(%r8), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rsi), %ymm2, %ymm0 vpsrlvq 160(%r8), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rsi), %ymm0, %ymm1 vpsrlvq 32(%r8), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r11 jne L_keccak1600_avx2$6 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %r9, %rcx shrq $3, %rcx movq $0, %rdx jmp L_keccak1600_avx2$4 L_keccak1600_avx2$5: movq (%rax,%rdx,8), %rsi movq (%rsp,%rsi,8), %rsi movq %rsi, (%rdi,%rdx,8) incq %rdx L_keccak1600_avx2$4: cmpq %rcx, %rdx jb L_keccak1600_avx2$5 movq (%rax,%rdx,8), %rax shlq $3, %rdx shlq $3, %rax jmp L_keccak1600_avx2$2 L_keccak1600_avx2$3: movb (%rsp,%rax), %cl movb %cl, (%rdi,%rdx) incq %rdx incq %rax L_keccak1600_avx2$2: cmpq %r9, %rdx jb L_keccak1600_avx2$3 jmp *%r10 .data .p2align 5 _glob_data: glob_data: .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 46 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 63 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 37 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 58 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 54 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 49 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 50 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 41 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 45 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 55 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 24 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 13 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 16 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 22 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 11 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 12 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 26 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 17 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0
usenix-security-verdict/verdict
85,265
deps/libcrux/sys/libjade/jazz/x25519_ref.s
.att_syntax .text .p2align 5 .globl _jade_scalarmult_curve25519_amd64_ref5_base .globl jade_scalarmult_curve25519_amd64_ref5_base .globl _jade_scalarmult_curve25519_amd64_ref5 .globl jade_scalarmult_curve25519_amd64_ref5 _jade_scalarmult_curve25519_amd64_ref5_base: jade_scalarmult_curve25519_amd64_ref5_base: movq %rsp, %rax leaq -480(%rsp), %rsp andq $-8, %rsp movq %rax, 472(%rsp) movq %rbx, 432(%rsp) movq %rbp, 440(%rsp) movq %r12, 448(%rsp) movq %r13, 456(%rsp) movq %r14, 464(%rsp) movq %rdi, (%rsp) movq (%rsi), %rax movq %rax, 40(%rsp) movq 8(%rsi), %rax movq %rax, 48(%rsp) movq 16(%rsi), %rax movq %rax, 56(%rsp) movq 24(%rsi), %rax movq %rax, 64(%rsp) andb $-8, 40(%rsp) andb $127, 71(%rsp) orb $64, 71(%rsp) movq $9, %rcx movq $0, %r8 movq $0, %r9 movq $0, %r10 movq $0, %r11 xorq %rbx, %rbx movq $1, 72(%rsp) movq $0, %rbp movq %rcx, 112(%rsp) movq %r8, 120(%rsp) movq %r9, 128(%rsp) movq %r10, 136(%rsp) movq %r11, 144(%rsp) movq $1, 152(%rsp) movq %rbx, 80(%rsp) movq %rbx, %rax movq %rbx, 160(%rsp) movq %rbx, 88(%rsp) movq %rbx, %rdx movq %rbx, 168(%rsp) movq %rbx, 96(%rsp) movq %rbx, %rsi movq %rbx, 176(%rsp) movq %rbx, 104(%rsp) movq %rbx, %rdi movq %rbx, 184(%rsp) movq %rcx, 192(%rsp) movq %r8, 200(%rsp) movq %r9, 208(%rsp) movq %r10, 216(%rsp) movq %r11, 224(%rsp) movq $255, %rcx movq $0, 8(%rsp) Ljade_scalarmult_curve25519_amd64_ref5_base$28: addq $-1, %rcx movq %rcx, 16(%rsp) movq %rcx, %r8 shrq $3, %r8 movzbq 40(%rsp,%r8), %r8 andq $7, %rcx shrq %cl, %r8 andq $1, %r8 movq 8(%rsp), %r9 xorq %r8, %r9 xorq %rcx, %rcx subq %r9, %rcx movq %rbp, %r11 movq %rax, %rbx movq %rdx, %r12 movq %rsi, %r9 movq %rdi, %r10 xorq 152(%rsp), %r11 andq %rcx, %r11 xorq 160(%rsp), %rbx andq %rcx, %rbx xorq 168(%rsp), %r12 andq %rcx, %r12 xorq 176(%rsp), %r9 andq %rcx, %r9 xorq 184(%rsp), %r10 andq %rcx, %r10 xorq %r11, %rbp movq 152(%rsp), %r13 xorq %r11, %r13 movq %r13, 152(%rsp) xorq %rbx, %rax movq 160(%rsp), %r11 xorq %rbx, %r11 movq %r11, 160(%rsp) xorq %r12, %rdx movq 168(%rsp), %r11 xorq %r12, %r11 movq %r11, 168(%rsp) xorq %r9, %rsi movq 176(%rsp), %r11 xorq %r9, %r11 movq %r11, 176(%rsp) xorq %r10, %rdi movq 184(%rsp), %r9 xorq %r10, %r9 movq %r9, 184(%rsp) movq 112(%rsp), %r12 movq 120(%rsp), %r9 movq 128(%rsp), %r10 movq 136(%rsp), %r11 movq 144(%rsp), %rbx movq 72(%rsp), %r13 movq %r12, %r14 xorq %r13, %r14 andq %rcx, %r14 xorq %r14, %r13 xorq %r14, %r12 movq %r13, 72(%rsp) movq %r12, 112(%rsp) movq 80(%rsp), %r12 movq %r9, %r13 xorq %r12, %r13 andq %rcx, %r13 xorq %r13, %r12 xorq %r13, %r9 movq %r12, 80(%rsp) movq %r9, 120(%rsp) movq 88(%rsp), %r9 movq %r10, %r12 xorq %r9, %r12 andq %rcx, %r12 xorq %r12, %r9 xorq %r12, %r10 movq %r9, 88(%rsp) movq %r10, 128(%rsp) movq 96(%rsp), %r9 movq %r11, %r10 xorq %r9, %r10 andq %rcx, %r10 xorq %r10, %r9 xorq %r10, %r11 movq %r9, 96(%rsp) movq %r11, 136(%rsp) movq 104(%rsp), %r9 movq %rbx, %r10 xorq %r9, %r10 andq %rcx, %r10 xorq %r10, %r9 xorq %r10, %rbx movq %r9, 104(%rsp) movq %rbx, 144(%rsp) movq %r8, 8(%rsp) movq $4503599627370458, %rcx movq $4503599627370494, %r8 movq 72(%rsp), %r9 movq 80(%rsp), %r10 movq 88(%rsp), %r11 movq 96(%rsp), %rbx movq 104(%rsp), %r12 addq %rcx, %r9 addq %r8, %r10 addq %r8, %r11 addq %r8, %rbx addq %r8, %r12 subq %rbp, %r9 subq %rax, %r10 subq %rdx, %r11 subq %rsi, %rbx subq %rdi, %r12 movq %r9, 232(%rsp) movq %r10, 240(%rsp) movq %r11, 248(%rsp) movq %rbx, 256(%rsp) movq %r12, 264(%rsp) addq 72(%rsp), %rbp addq 80(%rsp), %rax addq 88(%rsp), %rdx addq 96(%rsp), %rsi addq 104(%rsp), %rdi movq %rbp, 272(%rsp) movq %rax, 280(%rsp) movq %rdx, 288(%rsp) movq %rsi, 296(%rsp) movq %rdi, 304(%rsp) movq 112(%rsp), %rax movq 120(%rsp), %rcx movq 128(%rsp), %rdx movq 136(%rsp), %rsi movq 144(%rsp), %rdi movq $4503599627370458, %r8 movq $4503599627370494, %r9 addq %r8, %rax addq %r9, %rcx addq %r9, %rdx addq %r9, %rsi addq %r9, %rdi subq 152(%rsp), %rax subq 160(%rsp), %rcx subq 168(%rsp), %rdx subq 176(%rsp), %rsi subq 184(%rsp), %rdi movq %rax, 312(%rsp) movq %rcx, 320(%rsp) movq %rdx, 328(%rsp) movq %rsi, 336(%rsp) movq %rdi, 344(%rsp) movq 112(%rsp), %rax movq 120(%rsp), %rcx movq 128(%rsp), %rdx movq 136(%rsp), %rsi movq 144(%rsp), %rdi addq 152(%rsp), %rax addq 160(%rsp), %rcx addq 168(%rsp), %rdx addq 176(%rsp), %rsi addq 184(%rsp), %rdi movq %rax, 352(%rsp) movq %rcx, 360(%rsp) movq %rdx, 368(%rsp) movq %rsi, 376(%rsp) movq %rdi, 384(%rsp) movq 296(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 328(%rsp) movq %rax, %r12 movq %rdx, %rdi movq 304(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 320(%rsp) addq %rax, %r12 adcq %rdx, %rdi movq 272(%rsp), %rax mulq 312(%rsp) addq %rax, %r12 adcq %rdx, %rdi movq 272(%rsp), %rax mulq 320(%rsp) movq %rax, %r10 movq %rdx, %rbx movq 272(%rsp), %rax mulq 328(%rsp) movq %rax, %r8 movq %rdx, %r9 movq 272(%rsp), %rax mulq 336(%rsp) movq %rax, %rcx movq %rdx, %r11 movq 272(%rsp), %rax mulq 344(%rsp) movq %rax, %rbp movq %rdx, %rsi movq 280(%rsp), %rax mulq 312(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 280(%rsp), %rax mulq 320(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 280(%rsp), %rax mulq 328(%rsp) addq %rax, %rcx adcq %rdx, %r11 movq 280(%rsp), %rax mulq 336(%rsp) addq %rax, %rbp adcq %rdx, %rsi movq 280(%rsp), %rax imulq $19, %rax, %rax mulq 344(%rsp) addq %rax, %r12 adcq %rdx, %rdi movq 288(%rsp), %rax mulq 312(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 288(%rsp), %rax mulq 320(%rsp) addq %rax, %rcx adcq %rdx, %r11 movq 288(%rsp), %rax mulq 328(%rsp) addq %rax, %rbp adcq %rdx, %rsi movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 336(%rsp) addq %rax, %r12 adcq %rdx, %rdi movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 344(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 296(%rsp), %rax mulq 312(%rsp) addq %rax, %rcx adcq %rdx, %r11 movq 296(%rsp), %rax mulq 320(%rsp) addq %rax, %rbp adcq %rdx, %rsi movq 24(%rsp), %rax mulq 336(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 24(%rsp), %rax mulq 344(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 304(%rsp), %rax mulq 312(%rsp) addq %rax, %rbp adcq %rdx, %rsi movq 32(%rsp), %rax mulq 328(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 32(%rsp), %rax mulq 336(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 32(%rsp), %rax mulq 344(%rsp) addq %rax, %rcx adcq %rdx, %r11 movq $2251799813685247, %rax shldq $13, %r12, %rdi andq %rax, %r12 shldq $13, %r10, %rbx andq %rax, %r10 addq %rdi, %r10 shldq $13, %r8, %r9 andq %rax, %r8 addq %rbx, %r8 shldq $13, %rcx, %r11 andq %rax, %rcx addq %r9, %rcx shldq $13, %rbp, %rsi andq %rax, %rbp addq %r11, %rbp imulq $19, %rsi, %rdx addq %rdx, %r12 movq %r12, %rdx shrq $51, %rdx addq %r10, %rdx movq %rdx, %rsi shrq $51, %rdx andq %rax, %r12 addq %r8, %rdx movq %rdx, %rdi shrq $51, %rdx andq %rax, %rsi addq %rcx, %rdx movq %rdx, %rcx shrq $51, %rdx andq %rax, %rdi addq %rbp, %rdx movq %rdx, %r8 shrq $51, %rdx andq %rax, %rcx imulq $19, %rdx, %rdx addq %rdx, %r12 andq %rax, %r8 movq %r12, 312(%rsp) movq %rsi, 320(%rsp) movq %rdi, 328(%rsp) movq %rcx, 336(%rsp) movq %r8, 344(%rsp) movq 376(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 248(%rsp) movq %rax, %rsi movq %rdx, %rbx movq 384(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 240(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 352(%rsp), %rax mulq 232(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 352(%rsp), %rax mulq 240(%rsp) movq %rax, %r10 movq %rdx, %r11 movq 352(%rsp), %rax mulq 248(%rsp) movq %rax, %rcx movq %rdx, %rdi movq 352(%rsp), %rax mulq 256(%rsp) movq %rax, %rbp movq %rdx, %r8 movq 352(%rsp), %rax mulq 264(%rsp) movq %rax, %r9 movq %rdx, %r12 movq 360(%rsp), %rax mulq 232(%rsp) addq %rax, %r10 adcq %rdx, %r11 movq 360(%rsp), %rax mulq 240(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 360(%rsp), %rax mulq 248(%rsp) addq %rax, %rbp adcq %rdx, %r8 movq 360(%rsp), %rax mulq 256(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 360(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 368(%rsp), %rax mulq 232(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 368(%rsp), %rax mulq 240(%rsp) addq %rax, %rbp adcq %rdx, %r8 movq 368(%rsp), %rax mulq 248(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 368(%rsp), %rax imulq $19, %rax, %rax mulq 256(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 368(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %r10 adcq %rdx, %r11 movq 376(%rsp), %rax mulq 232(%rsp) addq %rax, %rbp adcq %rdx, %r8 movq 376(%rsp), %rax mulq 240(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 32(%rsp), %rax mulq 256(%rsp) addq %rax, %r10 adcq %rdx, %r11 movq 32(%rsp), %rax mulq 264(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 384(%rsp), %rax mulq 232(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 24(%rsp), %rax mulq 248(%rsp) addq %rax, %r10 adcq %rdx, %r11 movq 24(%rsp), %rax mulq 256(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 24(%rsp), %rax mulq 264(%rsp) addq %rax, %rbp adcq %rdx, %r8 movq $2251799813685247, %rax shldq $13, %rsi, %rbx andq %rax, %rsi shldq $13, %r10, %r11 andq %rax, %r10 addq %rbx, %r10 shldq $13, %rcx, %rdi andq %rax, %rcx addq %r11, %rcx shldq $13, %rbp, %r8 andq %rax, %rbp addq %rdi, %rbp shldq $13, %r9, %r12 andq %rax, %r9 addq %r8, %r9 imulq $19, %r12, %rdx addq %rdx, %rsi movq %rsi, %rdx shrq $51, %rdx addq %r10, %rdx movq %rdx, %rdi shrq $51, %rdx andq %rax, %rsi addq %rcx, %rdx movq %rdx, %rcx shrq $51, %rdx andq %rax, %rdi addq %rbp, %rdx movq %rdx, %r8 shrq $51, %rdx andq %rax, %rcx addq %r9, %rdx movq %rdx, %r9 shrq $51, %rdx andq %rax, %r8 imulq $19, %rdx, %rdx addq %rdx, %rsi andq %rax, %r9 movq %rsi, 352(%rsp) movq %rdi, 360(%rsp) movq %rcx, 368(%rsp) movq %r8, 376(%rsp) movq %r9, 384(%rsp) movq 272(%rsp), %rax mulq 272(%rsp) movq %rax, %rcx movq %rdx, %rsi movq 272(%rsp), %rax shlq $1, %rax mulq 280(%rsp) movq %rax, %rbx movq %rdx, %r8 movq 272(%rsp), %rax shlq $1, %rax mulq 288(%rsp) movq %rax, %r12 movq %rdx, %r9 movq 272(%rsp), %rax shlq $1, %rax mulq 296(%rsp) movq %rax, %rdi movq %rdx, %r11 movq 272(%rsp), %rax shlq $1, %rax mulq 304(%rsp) movq %rax, %r10 movq %rdx, %rbp movq 280(%rsp), %rax mulq 280(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 280(%rsp), %rax shlq $1, %rax mulq 288(%rsp) addq %rax, %rdi adcq %rdx, %r11 movq 280(%rsp), %rax shlq $1, %rax mulq 296(%rsp) addq %rax, %r10 adcq %rdx, %rbp movq 280(%rsp), %rax imulq $38, %rax, %rax mulq 304(%rsp) addq %rax, %rcx adcq %rdx, %rsi movq 288(%rsp), %rax mulq 288(%rsp) addq %rax, %r10 adcq %rdx, %rbp movq 288(%rsp), %rax imulq $38, %rax, %rax mulq 296(%rsp) addq %rax, %rcx adcq %rdx, %rsi movq 288(%rsp), %rax imulq $38, %rax, %rax mulq 304(%rsp) addq %rax, %rbx adcq %rdx, %r8 movq 296(%rsp), %rax imulq $19, %rax, %rax mulq 296(%rsp) addq %rax, %rbx adcq %rdx, %r8 movq 296(%rsp), %rax imulq $38, %rax, %rax mulq 304(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 304(%rsp), %rax imulq $19, %rax, %rax mulq 304(%rsp) addq %rax, %rdi adcq %rdx, %r11 movq $2251799813685247, %rax shldq $13, %rcx, %rsi andq %rax, %rcx shldq $13, %rbx, %r8 andq %rax, %rbx addq %rsi, %rbx shldq $13, %r12, %r9 andq %rax, %r12 addq %r8, %r12 shldq $13, %rdi, %r11 andq %rax, %rdi addq %r9, %rdi shldq $13, %r10, %rbp andq %rax, %r10 addq %r11, %r10 imulq $19, %rbp, %rdx addq %rdx, %rcx movq %rcx, %rdx shrq $51, %rdx addq %rbx, %rdx andq %rax, %rcx movq %rdx, %rsi shrq $51, %rdx addq %r12, %rdx andq %rax, %rsi movq %rdx, %r8 shrq $51, %rdx addq %rdi, %rdx andq %rax, %r8 movq %rdx, %rdi shrq $51, %rdx addq %r10, %rdx andq %rax, %rdi movq %rdx, %r9 shrq $51, %rdx imulq $19, %rdx, %rdx addq %rdx, %rcx andq %rax, %r9 movq %rcx, 272(%rsp) movq %rsi, 280(%rsp) movq %r8, 288(%rsp) movq %rdi, 296(%rsp) movq %r9, 304(%rsp) movq 232(%rsp), %rax mulq 232(%rsp) movq %rax, %r8 movq %rdx, %r11 movq 232(%rsp), %rax shlq $1, %rax mulq 240(%rsp) movq %rax, %r9 movq %rdx, %rbp movq 232(%rsp), %rax shlq $1, %rax mulq 248(%rsp) movq %rax, %rdi movq %rdx, %rbx movq 232(%rsp), %rax shlq $1, %rax mulq 256(%rsp) movq %rax, %rcx movq %rdx, %r10 movq 232(%rsp), %rax shlq $1, %rax mulq 264(%rsp) movq %rax, %r12 movq %rdx, %rsi movq 240(%rsp), %rax mulq 240(%rsp) addq %rax, %rdi adcq %rdx, %rbx movq 240(%rsp), %rax shlq $1, %rax mulq 248(%rsp) addq %rax, %rcx adcq %rdx, %r10 movq 240(%rsp), %rax shlq $1, %rax mulq 256(%rsp) addq %rax, %r12 adcq %rdx, %rsi movq 240(%rsp), %rax imulq $38, %rax, %rax mulq 264(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 248(%rsp), %rax mulq 248(%rsp) addq %rax, %r12 adcq %rdx, %rsi movq 248(%rsp), %rax imulq $38, %rax, %rax mulq 256(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 248(%rsp), %rax imulq $38, %rax, %rax mulq 264(%rsp) addq %rax, %r9 adcq %rdx, %rbp movq 256(%rsp), %rax imulq $19, %rax, %rax mulq 256(%rsp) addq %rax, %r9 adcq %rdx, %rbp movq 256(%rsp), %rax imulq $38, %rax, %rax mulq 264(%rsp) addq %rax, %rdi adcq %rdx, %rbx movq 264(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %rcx adcq %rdx, %r10 movq $2251799813685247, %rax shldq $13, %r8, %r11 andq %rax, %r8 shldq $13, %r9, %rbp andq %rax, %r9 addq %r11, %r9 shldq $13, %rdi, %rbx andq %rax, %rdi addq %rbp, %rdi shldq $13, %rcx, %r10 andq %rax, %rcx addq %rbx, %rcx shldq $13, %r12, %rsi andq %rax, %r12 addq %r10, %r12 imulq $19, %rsi, %rdx addq %rdx, %r8 movq %r8, %rdx shrq $51, %rdx addq %r9, %rdx andq %rax, %r8 movq %rdx, %rsi shrq $51, %rdx addq %rdi, %rdx andq %rax, %rsi movq %rdx, %rdi shrq $51, %rdx addq %rcx, %rdx andq %rax, %rdi movq %rdx, %rcx shrq $51, %rdx addq %r12, %rdx andq %rax, %rcx movq %rdx, %r9 shrq $51, %rdx imulq $19, %rdx, %rdx addq %rdx, %r8 andq %rax, %r9 movq %r8, 232(%rsp) movq %rsi, 240(%rsp) movq %rdi, 248(%rsp) movq %rcx, 256(%rsp) movq %r9, 264(%rsp) movq 312(%rsp), %rax movq 320(%rsp), %rcx movq 328(%rsp), %rdx movq 336(%rsp), %rsi movq 344(%rsp), %rdi addq 352(%rsp), %rax addq 360(%rsp), %rcx addq 368(%rsp), %rdx addq 376(%rsp), %rsi addq 384(%rsp), %rdi movq %rax, 392(%rsp) movq %rcx, 400(%rsp) movq %rdx, 408(%rsp) movq %rsi, 416(%rsp) movq %rdi, 424(%rsp) movq 312(%rsp), %rax movq 320(%rsp), %rcx movq 328(%rsp), %rdx movq 336(%rsp), %rsi movq 344(%rsp), %rdi movq $4503599627370458, %r8 movq $4503599627370494, %r9 addq %r8, %rax addq %r9, %rcx addq %r9, %rdx addq %r9, %rsi addq %r9, %rdi subq 352(%rsp), %rax subq 360(%rsp), %rcx subq 368(%rsp), %rdx subq 376(%rsp), %rsi subq 384(%rsp), %rdi movq %rax, 352(%rsp) movq %rcx, 360(%rsp) movq %rdx, 368(%rsp) movq %rsi, 376(%rsp) movq %rdi, 384(%rsp) movq 296(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 248(%rsp) movq %rax, %r9 movq %rdx, %r12 movq 304(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 240(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 272(%rsp), %rax mulq 232(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 272(%rsp), %rax mulq 240(%rsp) movq %rax, %rcx movq %rdx, %rbx movq 272(%rsp), %rax mulq 248(%rsp) movq %rax, %r8 movq %rdx, %rdi movq 272(%rsp), %rax mulq 256(%rsp) movq %rax, %r11 movq %rdx, %rsi movq 272(%rsp), %rax mulq 264(%rsp) movq %rax, %rbp movq %rdx, %r10 movq 280(%rsp), %rax mulq 232(%rsp) addq %rax, %rcx adcq %rdx, %rbx movq 280(%rsp), %rax mulq 240(%rsp) addq %rax, %r8 adcq %rdx, %rdi movq 280(%rsp), %rax mulq 248(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 280(%rsp), %rax mulq 256(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 280(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 288(%rsp), %rax mulq 232(%rsp) addq %rax, %r8 adcq %rdx, %rdi movq 288(%rsp), %rax mulq 240(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 288(%rsp), %rax mulq 248(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 256(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %rcx adcq %rdx, %rbx movq 296(%rsp), %rax mulq 232(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 296(%rsp), %rax mulq 240(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 24(%rsp), %rax mulq 256(%rsp) addq %rax, %rcx adcq %rdx, %rbx movq 24(%rsp), %rax mulq 264(%rsp) addq %rax, %r8 adcq %rdx, %rdi movq 304(%rsp), %rax mulq 232(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 32(%rsp), %rax mulq 248(%rsp) addq %rax, %rcx adcq %rdx, %rbx movq 32(%rsp), %rax mulq 256(%rsp) addq %rax, %r8 adcq %rdx, %rdi movq 32(%rsp), %rax mulq 264(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq $2251799813685247, %rax shldq $13, %r9, %r12 andq %rax, %r9 shldq $13, %rcx, %rbx andq %rax, %rcx addq %r12, %rcx shldq $13, %r8, %rdi andq %rax, %r8 addq %rbx, %r8 shldq $13, %r11, %rsi andq %rax, %r11 addq %rdi, %r11 shldq $13, %rbp, %r10 andq %rax, %rbp addq %rsi, %rbp imulq $19, %r10, %rdx addq %rdx, %r9 movq %r9, %rdx shrq $51, %rdx addq %rcx, %rdx movq %rdx, %rcx shrq $51, %rdx andq %rax, %r9 addq %r8, %rdx movq %rdx, %rsi shrq $51, %rdx andq %rax, %rcx addq %r11, %rdx movq %rdx, %rdi shrq $51, %rdx andq %rax, %rsi addq %rbp, %rdx movq %rdx, %r8 shrq $51, %rdx andq %rax, %rdi imulq $19, %rdx, %rdx addq %rdx, %r9 andq %rax, %r8 movq %r9, 72(%rsp) movq %rcx, 80(%rsp) movq %rsi, 88(%rsp) movq %rdi, 96(%rsp) movq %r8, 104(%rsp) movq 272(%rsp), %rax movq 280(%rsp), %rcx movq 288(%rsp), %rdx movq 296(%rsp), %rsi movq 304(%rsp), %rdi movq $4503599627370458, %r8 movq $4503599627370494, %r9 addq %r8, %rax addq %r9, %rcx addq %r9, %rdx addq %r9, %rsi addq %r9, %rdi subq 232(%rsp), %rax subq 240(%rsp), %rcx subq 248(%rsp), %rdx subq 256(%rsp), %rsi subq 264(%rsp), %rdi movq %rax, 232(%rsp) movq %rcx, 240(%rsp) movq %rdx, 248(%rsp) movq %rsi, 256(%rsp) movq %rdi, 264(%rsp) movq 352(%rsp), %rax mulq 352(%rsp) movq %rax, %r11 movq %rdx, %rbx movq 352(%rsp), %rax shlq $1, %rax mulq 360(%rsp) movq %rax, %rbp movq %rdx, %r10 movq 352(%rsp), %rax shlq $1, %rax mulq 368(%rsp) movq %rax, %r8 movq %rdx, %r12 movq 352(%rsp), %rax shlq $1, %rax mulq 376(%rsp) movq %rax, %rcx movq %rdx, %rsi movq 352(%rsp), %rax shlq $1, %rax mulq 384(%rsp) movq %rax, %rdi movq %rdx, %r9 movq 360(%rsp), %rax mulq 360(%rsp) addq %rax, %r8 adcq %rdx, %r12 movq 360(%rsp), %rax shlq $1, %rax mulq 368(%rsp) addq %rax, %rcx adcq %rdx, %rsi movq 360(%rsp), %rax shlq $1, %rax mulq 376(%rsp) addq %rax, %rdi adcq %rdx, %r9 movq 360(%rsp), %rax imulq $38, %rax, %rax mulq 384(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 368(%rsp), %rax mulq 368(%rsp) addq %rax, %rdi adcq %rdx, %r9 movq 368(%rsp), %rax imulq $38, %rax, %rax mulq 376(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 368(%rsp), %rax imulq $38, %rax, %rax mulq 384(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 376(%rsp), %rax imulq $19, %rax, %rax mulq 376(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 376(%rsp), %rax imulq $38, %rax, %rax mulq 384(%rsp) addq %rax, %r8 adcq %rdx, %r12 movq 384(%rsp), %rax imulq $19, %rax, %rax mulq 384(%rsp) addq %rax, %rcx adcq %rdx, %rsi movq $2251799813685247, %rax shldq $13, %r11, %rbx andq %rax, %r11 shldq $13, %rbp, %r10 andq %rax, %rbp addq %rbx, %rbp shldq $13, %r8, %r12 andq %rax, %r8 addq %r10, %r8 shldq $13, %rcx, %rsi andq %rax, %rcx addq %r12, %rcx shldq $13, %rdi, %r9 andq %rax, %rdi addq %rsi, %rdi imulq $19, %r9, %rdx addq %rdx, %r11 movq %r11, %rdx shrq $51, %rdx addq %rbp, %rdx andq %rax, %r11 movq %rdx, %rsi shrq $51, %rdx addq %r8, %rdx andq %rax, %rsi movq %rdx, %r8 shrq $51, %rdx addq %rcx, %rdx andq %rax, %r8 movq %rdx, %rcx shrq $51, %rdx addq %rdi, %rdx andq %rax, %rcx movq %rdx, %rdi shrq $51, %rdx imulq $19, %rdx, %rdx addq %rdx, %r11 andq %rax, %rdi movq %r11, 352(%rsp) movq %rsi, 360(%rsp) movq %r8, 368(%rsp) movq %rcx, 376(%rsp) movq %rdi, 384(%rsp) movq $996679680, %rcx movq 232(%rsp), %rax mulq %rcx shrq $13, %rax movq %rax, %rsi movq %rdx, %rdi movq 240(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %rdi movq %rdx, %r8 movq 248(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %r8 movq %rdx, %r9 movq 256(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %r9 movq %rdx, %r10 movq 264(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %r10 imulq $19, %rdx, %rax addq %rax, %rsi addq 272(%rsp), %rsi addq 280(%rsp), %rdi addq 288(%rsp), %r8 addq 296(%rsp), %r9 addq 304(%rsp), %r10 movq %rsi, 272(%rsp) movq %rdi, 280(%rsp) movq %r8, 288(%rsp) movq %r9, 296(%rsp) movq %r10, 304(%rsp) movq 392(%rsp), %rax mulq 392(%rsp) movq %rax, %rbx movq %rdx, %r8 movq 392(%rsp), %rax shlq $1, %rax mulq 400(%rsp) movq %rax, %r12 movq %rdx, %rsi movq 392(%rsp), %rax shlq $1, %rax mulq 408(%rsp) movq %rax, %rdi movq %rdx, %rcx movq 392(%rsp), %rax shlq $1, %rax mulq 416(%rsp) movq %rax, %rbp movq %rdx, %r11 movq 392(%rsp), %rax shlq $1, %rax mulq 424(%rsp) movq %rax, %r10 movq %rdx, %r9 movq 400(%rsp), %rax mulq 400(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 400(%rsp), %rax shlq $1, %rax mulq 408(%rsp) addq %rax, %rbp adcq %rdx, %r11 movq 400(%rsp), %rax shlq $1, %rax mulq 416(%rsp) addq %rax, %r10 adcq %rdx, %r9 movq 400(%rsp), %rax imulq $38, %rax, %rax mulq 424(%rsp) addq %rax, %rbx adcq %rdx, %r8 movq 408(%rsp), %rax mulq 408(%rsp) addq %rax, %r10 adcq %rdx, %r9 movq 408(%rsp), %rax imulq $38, %rax, %rax mulq 416(%rsp) addq %rax, %rbx adcq %rdx, %r8 movq 408(%rsp), %rax imulq $38, %rax, %rax mulq 424(%rsp) addq %rax, %r12 adcq %rdx, %rsi movq 416(%rsp), %rax imulq $19, %rax, %rax mulq 416(%rsp) addq %rax, %r12 adcq %rdx, %rsi movq 416(%rsp), %rax imulq $38, %rax, %rax mulq 424(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 424(%rsp), %rax imulq $19, %rax, %rax mulq 424(%rsp) addq %rax, %rbp adcq %rdx, %r11 movq $2251799813685247, %rax shldq $13, %rbx, %r8 andq %rax, %rbx shldq $13, %r12, %rsi andq %rax, %r12 addq %r8, %r12 shldq $13, %rdi, %rcx andq %rax, %rdi addq %rsi, %rdi shldq $13, %rbp, %r11 andq %rax, %rbp addq %rcx, %rbp shldq $13, %r10, %r9 andq %rax, %r10 addq %r11, %r10 imulq $19, %r9, %rcx addq %rcx, %rbx movq %rbx, %rcx shrq $51, %rcx addq %r12, %rcx andq %rax, %rbx movq %rcx, %rdx shrq $51, %rcx addq %rdi, %rcx andq %rax, %rdx movq %rcx, %rsi shrq $51, %rcx addq %rbp, %rcx andq %rax, %rsi movq %rcx, %rdi shrq $51, %rcx addq %r10, %rcx andq %rax, %rdi movq %rcx, %r8 shrq $51, %rcx imulq $19, %rcx, %rcx addq %rcx, %rbx andq %rax, %r8 movq %rbx, 112(%rsp) movq %rdx, 120(%rsp) movq %rsi, 128(%rsp) movq %rdi, 136(%rsp) movq %r8, 144(%rsp) movq 216(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 368(%rsp) movq %rax, %rdi movq %rdx, %rsi movq 224(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 360(%rsp) addq %rax, %rdi adcq %rdx, %rsi movq 192(%rsp), %rax mulq 352(%rsp) addq %rax, %rdi adcq %rdx, %rsi movq 192(%rsp), %rax mulq 360(%rsp) movq %rax, %r11 movq %rdx, %rbx movq 192(%rsp), %rax mulq 368(%rsp) movq %rax, %r8 movq %rdx, %r9 movq 192(%rsp), %rax mulq 376(%rsp) movq %rax, %r12 movq %rdx, %rcx movq 192(%rsp), %rax mulq 384(%rsp) movq %rax, %rbp movq %rdx, %r10 movq 200(%rsp), %rax mulq 352(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 200(%rsp), %rax mulq 360(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 200(%rsp), %rax mulq 368(%rsp) addq %rax, %r12 adcq %rdx, %rcx movq 200(%rsp), %rax mulq 376(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 200(%rsp), %rax imulq $19, %rax, %rax mulq 384(%rsp) addq %rax, %rdi adcq %rdx, %rsi movq 208(%rsp), %rax mulq 352(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 208(%rsp), %rax mulq 360(%rsp) addq %rax, %r12 adcq %rdx, %rcx movq 208(%rsp), %rax mulq 368(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 208(%rsp), %rax imulq $19, %rax, %rax mulq 376(%rsp) addq %rax, %rdi adcq %rdx, %rsi movq 208(%rsp), %rax imulq $19, %rax, %rax mulq 384(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 216(%rsp), %rax mulq 352(%rsp) addq %rax, %r12 adcq %rdx, %rcx movq 216(%rsp), %rax mulq 360(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 32(%rsp), %rax mulq 376(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 32(%rsp), %rax mulq 384(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 224(%rsp), %rax mulq 352(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 24(%rsp), %rax mulq 368(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 24(%rsp), %rax mulq 376(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 24(%rsp), %rax mulq 384(%rsp) addq %rax, %r12 adcq %rdx, %rcx movq $2251799813685247, %rax shldq $13, %rdi, %rsi andq %rax, %rdi shldq $13, %r11, %rbx andq %rax, %r11 addq %rsi, %r11 shldq $13, %r8, %r9 andq %rax, %r8 addq %rbx, %r8 shldq $13, %r12, %rcx andq %rax, %r12 addq %r9, %r12 shldq $13, %rbp, %r10 andq %rax, %rbp addq %rcx, %rbp imulq $19, %r10, %rcx addq %rcx, %rdi movq %rdi, %rcx shrq $51, %rcx addq %r11, %rcx movq %rcx, %rdx shrq $51, %rcx andq %rax, %rdi addq %r8, %rcx movq %rcx, %rsi shrq $51, %rcx andq %rax, %rdx addq %r12, %rcx movq %rcx, %r8 shrq $51, %rcx andq %rax, %rsi addq %rbp, %rcx movq %rcx, %r9 shrq $51, %rcx andq %rax, %r8 imulq $19, %rcx, %rcx addq %rcx, %rdi andq %rax, %r9 movq %rdi, 152(%rsp) movq %rdx, 160(%rsp) movq %rsi, 168(%rsp) movq %r8, 176(%rsp) movq %r9, 184(%rsp) movq 256(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 288(%rsp) movq %rax, %rbp movq %rdx, %rdi movq 264(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 280(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 232(%rsp), %rax mulq 272(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 232(%rsp), %rax mulq 280(%rsp) movq %rax, %rbx movq %rdx, %r12 movq 232(%rsp), %rax mulq 288(%rsp) movq %rax, %rsi movq %rdx, %r10 movq 232(%rsp), %rax mulq 296(%rsp) movq %rax, %r11 movq %rdx, %r8 movq 232(%rsp), %rax mulq 304(%rsp) movq %rax, %rcx movq %rdx, %r9 movq 240(%rsp), %rax mulq 272(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 240(%rsp), %rax mulq 280(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 240(%rsp), %rax mulq 288(%rsp) addq %rax, %r11 adcq %rdx, %r8 movq 240(%rsp), %rax mulq 296(%rsp) addq %rax, %rcx adcq %rdx, %r9 movq 240(%rsp), %rax imulq $19, %rax, %rax mulq 304(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 248(%rsp), %rax mulq 272(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 248(%rsp), %rax mulq 280(%rsp) addq %rax, %r11 adcq %rdx, %r8 movq 248(%rsp), %rax mulq 288(%rsp) addq %rax, %rcx adcq %rdx, %r9 movq 248(%rsp), %rax imulq $19, %rax, %rax mulq 296(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 248(%rsp), %rax imulq $19, %rax, %rax mulq 304(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 256(%rsp), %rax mulq 272(%rsp) addq %rax, %r11 adcq %rdx, %r8 movq 256(%rsp), %rax mulq 280(%rsp) addq %rax, %rcx adcq %rdx, %r9 movq 24(%rsp), %rax mulq 296(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 24(%rsp), %rax mulq 304(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 264(%rsp), %rax mulq 272(%rsp) addq %rax, %rcx adcq %rdx, %r9 movq 32(%rsp), %rax mulq 288(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 32(%rsp), %rax mulq 296(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 32(%rsp), %rax mulq 304(%rsp) addq %rax, %r11 adcq %rdx, %r8 movq $2251799813685247, %r13 shldq $13, %rbp, %rdi andq %r13, %rbp shldq $13, %rbx, %r12 andq %r13, %rbx addq %rdi, %rbx shldq $13, %rsi, %r10 andq %r13, %rsi addq %r12, %rsi shldq $13, %r11, %r8 andq %r13, %r11 addq %r10, %r11 shldq $13, %rcx, %r9 andq %r13, %rcx addq %r8, %rcx imulq $19, %r9, %rax addq %rax, %rbp movq %rbp, %r8 shrq $51, %r8 addq %rbx, %r8 movq %r8, %rax shrq $51, %r8 andq %r13, %rbp addq %rsi, %r8 movq %r8, %rdx shrq $51, %r8 andq %r13, %rax addq %r11, %r8 movq %r8, %rsi shrq $51, %r8 andq %r13, %rdx addq %rcx, %r8 movq %r8, %rdi shrq $51, %r8 andq %r13, %rsi imulq $19, %r8, %rcx addq %rcx, %rbp andq %r13, %rdi movq 16(%rsp), %rcx cmpq $0, %rcx jnbe Ljade_scalarmult_curve25519_amd64_ref5_base$28 movq %rbp, 152(%rsp) movq %rax, 160(%rsp) movq %rdx, 168(%rsp) movq %rsi, 176(%rsp) movq %rdi, 184(%rsp) movq 152(%rsp), %rax movq %rax, 112(%rsp) movq 160(%rsp), %rax movq %rax, 120(%rsp) movq 168(%rsp), %rax movq %rax, 128(%rsp) movq 176(%rsp), %rax movq %rax, 136(%rsp) movq 184(%rsp), %rax movq %rax, 144(%rsp) leaq 112(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$27(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$27: leaq 8(%rsp), %rsp movq 112(%rsp), %rax movq %rax, 192(%rsp) movq 120(%rsp), %rax movq %rax, 200(%rsp) movq 128(%rsp), %rax movq %rax, 208(%rsp) movq 136(%rsp), %rax movq %rax, 216(%rsp) movq 144(%rsp), %rax movq %rax, 224(%rsp) leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$26(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$26: leaq 8(%rsp), %rsp leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$25(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$25: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$24(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$24: leaq 24(%rsp), %rsp leaq 112(%rsp), %r9 leaq 192(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$23(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$23: leaq 24(%rsp), %rsp movq 112(%rsp), %rax movq %rax, 152(%rsp) movq 120(%rsp), %rax movq %rax, 160(%rsp) movq 128(%rsp), %rax movq %rax, 168(%rsp) movq 136(%rsp), %rax movq %rax, 176(%rsp) movq 144(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$22(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$22: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$21(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$21: leaq 24(%rsp), %rsp movq 192(%rsp), %rax movq %rax, 152(%rsp) movq 200(%rsp), %rax movq %rax, 160(%rsp) movq 208(%rsp), %rax movq %rax, 168(%rsp) movq 216(%rsp), %rax movq %rax, 176(%rsp) movq 224(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$20(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$20: leaq 8(%rsp), %rsp movl $4, %r13d leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$19(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$19: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$18(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$18: leaq 24(%rsp), %rsp movl $10, %r13d movq 192(%rsp), %rax movq %rax, 152(%rsp) movq 200(%rsp), %rax movq %rax, 160(%rsp) movq 208(%rsp), %rax movq %rax, 168(%rsp) movq 216(%rsp), %rax movq %rax, 176(%rsp) movq 224(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$17(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$17: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 192(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$16(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$16: leaq 24(%rsp), %rsp movl $20, %r13d movq 152(%rsp), %rax movq %rax, 272(%rsp) movq 160(%rsp), %rax movq %rax, 280(%rsp) movq 168(%rsp), %rax movq %rax, 288(%rsp) movq 176(%rsp), %rax movq %rax, 296(%rsp) movq 184(%rsp), %rax movq %rax, 304(%rsp) leaq 272(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$15(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$15: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 272(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$14(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$14: leaq 24(%rsp), %rsp movl $10, %r13d leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$13(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$13: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$12(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$12: leaq 24(%rsp), %rsp movl $50, %r13d movq 192(%rsp), %rax movq %rax, 152(%rsp) movq 200(%rsp), %rax movq %rax, 160(%rsp) movq 208(%rsp), %rax movq %rax, 168(%rsp) movq 216(%rsp), %rax movq %rax, 176(%rsp) movq 224(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$11(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$11: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 192(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$10(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$10: leaq 24(%rsp), %rsp movl $100, %r13d movq 152(%rsp), %rax movq %rax, 272(%rsp) movq 160(%rsp), %rax movq %rax, 280(%rsp) movq 168(%rsp), %rax movq %rax, 288(%rsp) movq 176(%rsp), %rax movq %rax, 296(%rsp) movq 184(%rsp), %rax movq %rax, 304(%rsp) leaq 272(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$9(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$9: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 272(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$8(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$8: leaq 24(%rsp), %rsp movl $50, %r13d leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$7(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$7: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$6(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$6: leaq 24(%rsp), %rsp movl $4, %r13d leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$5(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$5: leaq 8(%rsp), %rsp leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$4(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$4: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 112(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$3(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$3: leaq 24(%rsp), %rsp movq 96(%rsp), %rax imulq $19, %rax, %rax movq %rax, 8(%rsp) mulq 208(%rsp) movq %rax, %r9 movq %rdx, %r12 movq 104(%rsp), %rax imulq $19, %rax, %rax movq %rax, 16(%rsp) mulq 200(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 72(%rsp), %rax mulq 192(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 72(%rsp), %rax mulq 200(%rsp) movq %rax, %r11 movq %rdx, %rdi movq 72(%rsp), %rax mulq 208(%rsp) movq %rax, %rsi movq %rdx, %r10 movq 72(%rsp), %rax mulq 216(%rsp) movq %rax, %rcx movq %rdx, %r8 movq 72(%rsp), %rax mulq 224(%rsp) movq %rax, %rbx movq %rdx, %rbp movq 80(%rsp), %rax mulq 192(%rsp) addq %rax, %r11 adcq %rdx, %rdi movq 80(%rsp), %rax mulq 200(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 80(%rsp), %rax mulq 208(%rsp) addq %rax, %rcx adcq %rdx, %r8 movq 80(%rsp), %rax mulq 216(%rsp) addq %rax, %rbx adcq %rdx, %rbp movq 80(%rsp), %rax imulq $19, %rax, %rax mulq 224(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 88(%rsp), %rax mulq 192(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 88(%rsp), %rax mulq 200(%rsp) addq %rax, %rcx adcq %rdx, %r8 movq 88(%rsp), %rax mulq 208(%rsp) addq %rax, %rbx adcq %rdx, %rbp movq 88(%rsp), %rax imulq $19, %rax, %rax mulq 216(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 88(%rsp), %rax imulq $19, %rax, %rax mulq 224(%rsp) addq %rax, %r11 adcq %rdx, %rdi movq 96(%rsp), %rax mulq 192(%rsp) addq %rax, %rcx adcq %rdx, %r8 movq 96(%rsp), %rax mulq 200(%rsp) addq %rax, %rbx adcq %rdx, %rbp movq 8(%rsp), %rax mulq 216(%rsp) addq %rax, %r11 adcq %rdx, %rdi movq 8(%rsp), %rax mulq 224(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 104(%rsp), %rax mulq 192(%rsp) addq %rax, %rbx adcq %rdx, %rbp movq 16(%rsp), %rax mulq 208(%rsp) addq %rax, %r11 adcq %rdx, %rdi movq 16(%rsp), %rax mulq 216(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 16(%rsp), %rax mulq 224(%rsp) addq %rax, %rcx adcq %rdx, %r8 movq $2251799813685247, %rax shldq $13, %r9, %r12 andq %rax, %r9 shldq $13, %r11, %rdi andq %rax, %r11 addq %r12, %r11 shldq $13, %rsi, %r10 andq %rax, %rsi addq %rdi, %rsi shldq $13, %rcx, %r8 andq %rax, %rcx addq %r10, %rcx shldq $13, %rbx, %rbp andq %rax, %rbx addq %r8, %rbx imulq $19, %rbp, %rdx addq %rdx, %r9 movq %r9, %r8 shrq $51, %r8 addq %r11, %r8 movq %r8, %rdx shrq $51, %r8 andq %rax, %r9 addq %rsi, %r8 movq %r8, %rsi shrq $51, %r8 andq %rax, %rdx addq %rcx, %r8 movq %r8, %rcx shrq $51, %r8 andq %rax, %rsi addq %rbx, %r8 movq %r8, %rdi shrq $51, %r8 andq %rax, %rcx imulq $19, %r8, %r8 addq %r8, %r9 andq %rax, %rdi movq $2251799813685247, %rax movq %rax, %r8 addq $-18, %r8 movq $3, %r10 jmp Ljade_scalarmult_curve25519_amd64_ref5_base$1 Ljade_scalarmult_curve25519_amd64_ref5_base$2: movq %r9, %r11 shrq $51, %r11 andq %rax, %r9 addq %r11, %rdx movq %rdx, %r11 shrq $51, %r11 andq %rax, %rdx addq %r11, %rsi movq %rsi, %r11 shrq $51, %r11 andq %rax, %rsi addq %r11, %rcx movq %rcx, %r11 shrq $51, %r11 andq %rax, %rcx addq %r11, %rdi movq %rdi, %r11 shrq $51, %r11 andq %rax, %rdi imulq $19, %r11, %r11 addq %r11, %r9 addq $-1, %r10 Ljade_scalarmult_curve25519_amd64_ref5_base$1: cmpq $0, %r10 jnbe Ljade_scalarmult_curve25519_amd64_ref5_base$2 movq $1, %r11 cmpq %r8, %r9 cmovl %r10, %r11 cmpq %rax, %rdx cmovne %r10, %r11 cmpq %rax, %rsi cmovne %r10, %r11 cmpq %rax, %rcx cmovne %r10, %r11 cmpq %rax, %rdi cmovne %r10, %r11 negq %r11 andq %r11, %rax andq %r11, %r8 subq %r8, %r9 subq %rax, %rdx subq %rax, %rsi subq %rax, %rcx subq %rax, %rdi movq %rdx, %rax shlq $51, %rax orq %r9, %rax movq %rsi, %r8 shlq $38, %r8 shrq $13, %rdx orq %rdx, %r8 movq %rcx, %rdx shlq $25, %rdx shrq $26, %rsi orq %rsi, %rdx shlq $12, %rdi shrq $39, %rcx orq %rcx, %rdi movq (%rsp), %rcx movq %rax, (%rcx) movq %r8, 8(%rcx) movq %rdx, 16(%rcx) movq %rdi, 24(%rcx) xorq %rax, %rax movq 432(%rsp), %rbx movq 440(%rsp), %rbp movq 448(%rsp), %r12 movq 456(%rsp), %r13 movq 464(%rsp), %r14 movq 472(%rsp), %rsp ret _jade_scalarmult_curve25519_amd64_ref5: jade_scalarmult_curve25519_amd64_ref5: movq %rsp, %rax leaq -480(%rsp), %rsp andq $-8, %rsp movq %rax, 472(%rsp) movq %rbx, 432(%rsp) movq %rbp, 440(%rsp) movq %r12, 448(%rsp) movq %r13, 456(%rsp) movq %r14, 464(%rsp) movq %rdi, (%rsp) movq (%rsi), %rax movq %rax, 40(%rsp) movq 8(%rsi), %rax movq %rax, 48(%rsp) movq 16(%rsi), %rax movq %rax, 56(%rsp) movq 24(%rsi), %rax movq %rax, 64(%rsp) andb $-8, 40(%rsp) andb $127, 71(%rsp) orb $64, 71(%rsp) movq (%rdx), %rax movq 8(%rdx), %rsi movq 16(%rdx), %rdi movq 24(%rdx), %rdx movq $2251799813685247, %r9 movq %rax, %rcx andq %r9, %rcx movq %rsi, %r8 shlq $13, %r8 shrq $51, %rax orq %rax, %r8 andq %r9, %r8 movq %rdi, %r10 shlq $26, %r10 shrq $38, %rsi orq %rsi, %r10 andq %r9, %r10 movq %rdx, %r11 shlq $39, %r11 shrq $25, %rdi orq %rdi, %r11 andq %r9, %r11 movq %rdx, %rbp shrq $12, %rbp andq %r9, %rbp xorq %r9, %r9 movq $1, 72(%rsp) movq $0, %rbx movq %rcx, 112(%rsp) movq %r8, 120(%rsp) movq %r10, 128(%rsp) movq %r11, 136(%rsp) movq %rbp, 144(%rsp) movq $1, 152(%rsp) movq %r9, 80(%rsp) movq %r9, %rax movq %r9, 160(%rsp) movq %r9, 88(%rsp) movq %r9, %rdx movq %r9, 168(%rsp) movq %r9, 96(%rsp) movq %r9, %rsi movq %r9, 176(%rsp) movq %r9, 104(%rsp) movq %r9, %rdi movq %r9, 184(%rsp) movq %rcx, 192(%rsp) movq %r8, 200(%rsp) movq %r10, 208(%rsp) movq %r11, 216(%rsp) movq %rbp, 224(%rsp) movq $255, %rcx movq $0, 8(%rsp) Ljade_scalarmult_curve25519_amd64_ref5$28: addq $-1, %rcx movq %rcx, 16(%rsp) movq %rcx, %r8 shrq $3, %r8 movzbq 40(%rsp,%r8), %r8 andq $7, %rcx shrq %cl, %r8 andq $1, %r8 movq 8(%rsp), %r9 xorq %r8, %r9 xorq %rcx, %rcx subq %r9, %rcx movq %rbx, %r11 movq %rax, %rbp movq %rdx, %r12 movq %rsi, %r9 movq %rdi, %r10 xorq 152(%rsp), %r11 andq %rcx, %r11 xorq 160(%rsp), %rbp andq %rcx, %rbp xorq 168(%rsp), %r12 andq %rcx, %r12 xorq 176(%rsp), %r9 andq %rcx, %r9 xorq 184(%rsp), %r10 andq %rcx, %r10 xorq %r11, %rbx movq 152(%rsp), %r13 xorq %r11, %r13 movq %r13, 152(%rsp) xorq %rbp, %rax movq 160(%rsp), %r11 xorq %rbp, %r11 movq %r11, 160(%rsp) xorq %r12, %rdx movq 168(%rsp), %r11 xorq %r12, %r11 movq %r11, 168(%rsp) xorq %r9, %rsi movq 176(%rsp), %r11 xorq %r9, %r11 movq %r11, 176(%rsp) xorq %r10, %rdi movq 184(%rsp), %r9 xorq %r10, %r9 movq %r9, 184(%rsp) movq 112(%rsp), %r12 movq 120(%rsp), %r9 movq 128(%rsp), %r10 movq 136(%rsp), %r11 movq 144(%rsp), %rbp movq 72(%rsp), %r13 movq %r12, %r14 xorq %r13, %r14 andq %rcx, %r14 xorq %r14, %r13 xorq %r14, %r12 movq %r13, 72(%rsp) movq %r12, 112(%rsp) movq 80(%rsp), %r12 movq %r9, %r13 xorq %r12, %r13 andq %rcx, %r13 xorq %r13, %r12 xorq %r13, %r9 movq %r12, 80(%rsp) movq %r9, 120(%rsp) movq 88(%rsp), %r9 movq %r10, %r12 xorq %r9, %r12 andq %rcx, %r12 xorq %r12, %r9 xorq %r12, %r10 movq %r9, 88(%rsp) movq %r10, 128(%rsp) movq 96(%rsp), %r9 movq %r11, %r10 xorq %r9, %r10 andq %rcx, %r10 xorq %r10, %r9 xorq %r10, %r11 movq %r9, 96(%rsp) movq %r11, 136(%rsp) movq 104(%rsp), %r9 movq %rbp, %r10 xorq %r9, %r10 andq %rcx, %r10 xorq %r10, %r9 xorq %r10, %rbp movq %r9, 104(%rsp) movq %rbp, 144(%rsp) movq %r8, 8(%rsp) movq $4503599627370458, %rcx movq $4503599627370494, %r8 movq 72(%rsp), %r9 movq 80(%rsp), %r10 movq 88(%rsp), %r11 movq 96(%rsp), %rbp movq 104(%rsp), %r12 addq %rcx, %r9 addq %r8, %r10 addq %r8, %r11 addq %r8, %rbp addq %r8, %r12 subq %rbx, %r9 subq %rax, %r10 subq %rdx, %r11 subq %rsi, %rbp subq %rdi, %r12 movq %r9, 232(%rsp) movq %r10, 240(%rsp) movq %r11, 248(%rsp) movq %rbp, 256(%rsp) movq %r12, 264(%rsp) addq 72(%rsp), %rbx addq 80(%rsp), %rax addq 88(%rsp), %rdx addq 96(%rsp), %rsi addq 104(%rsp), %rdi movq %rbx, 272(%rsp) movq %rax, 280(%rsp) movq %rdx, 288(%rsp) movq %rsi, 296(%rsp) movq %rdi, 304(%rsp) movq 112(%rsp), %rax movq 120(%rsp), %rcx movq 128(%rsp), %rdx movq 136(%rsp), %rsi movq 144(%rsp), %rdi movq $4503599627370458, %r8 movq $4503599627370494, %r9 addq %r8, %rax addq %r9, %rcx addq %r9, %rdx addq %r9, %rsi addq %r9, %rdi subq 152(%rsp), %rax subq 160(%rsp), %rcx subq 168(%rsp), %rdx subq 176(%rsp), %rsi subq 184(%rsp), %rdi movq %rax, 312(%rsp) movq %rcx, 320(%rsp) movq %rdx, 328(%rsp) movq %rsi, 336(%rsp) movq %rdi, 344(%rsp) movq 112(%rsp), %rax movq 120(%rsp), %rcx movq 128(%rsp), %rdx movq 136(%rsp), %rsi movq 144(%rsp), %rdi addq 152(%rsp), %rax addq 160(%rsp), %rcx addq 168(%rsp), %rdx addq 176(%rsp), %rsi addq 184(%rsp), %rdi movq %rax, 352(%rsp) movq %rcx, 360(%rsp) movq %rdx, 368(%rsp) movq %rsi, 376(%rsp) movq %rdi, 384(%rsp) movq 296(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 328(%rsp) movq %rax, %r12 movq %rdx, %r9 movq 304(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 320(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 272(%rsp), %rax mulq 312(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 272(%rsp), %rax mulq 320(%rsp) movq %rax, %rsi movq %rdx, %rbx movq 272(%rsp), %rax mulq 328(%rsp) movq %rax, %r10 movq %rdx, %r8 movq 272(%rsp), %rax mulq 336(%rsp) movq %rax, %rdi movq %rdx, %rbp movq 272(%rsp), %rax mulq 344(%rsp) movq %rax, %r11 movq %rdx, %rcx movq 280(%rsp), %rax mulq 312(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 280(%rsp), %rax mulq 320(%rsp) addq %rax, %r10 adcq %rdx, %r8 movq 280(%rsp), %rax mulq 328(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq 280(%rsp), %rax mulq 336(%rsp) addq %rax, %r11 adcq %rdx, %rcx movq 280(%rsp), %rax imulq $19, %rax, %rax mulq 344(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 288(%rsp), %rax mulq 312(%rsp) addq %rax, %r10 adcq %rdx, %r8 movq 288(%rsp), %rax mulq 320(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq 288(%rsp), %rax mulq 328(%rsp) addq %rax, %r11 adcq %rdx, %rcx movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 336(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 344(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 296(%rsp), %rax mulq 312(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq 296(%rsp), %rax mulq 320(%rsp) addq %rax, %r11 adcq %rdx, %rcx movq 24(%rsp), %rax mulq 336(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 24(%rsp), %rax mulq 344(%rsp) addq %rax, %r10 adcq %rdx, %r8 movq 304(%rsp), %rax mulq 312(%rsp) addq %rax, %r11 adcq %rdx, %rcx movq 32(%rsp), %rax mulq 328(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 32(%rsp), %rax mulq 336(%rsp) addq %rax, %r10 adcq %rdx, %r8 movq 32(%rsp), %rax mulq 344(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq $2251799813685247, %rax shldq $13, %r12, %r9 andq %rax, %r12 shldq $13, %rsi, %rbx andq %rax, %rsi addq %r9, %rsi shldq $13, %r10, %r8 andq %rax, %r10 addq %rbx, %r10 shldq $13, %rdi, %rbp andq %rax, %rdi addq %r8, %rdi shldq $13, %r11, %rcx andq %rax, %r11 addq %rbp, %r11 imulq $19, %rcx, %rcx addq %rcx, %r12 movq %r12, %rcx shrq $51, %rcx addq %rsi, %rcx movq %rcx, %rdx shrq $51, %rcx andq %rax, %r12 addq %r10, %rcx movq %rcx, %rsi shrq $51, %rcx andq %rax, %rdx addq %rdi, %rcx movq %rcx, %rdi shrq $51, %rcx andq %rax, %rsi addq %r11, %rcx movq %rcx, %r8 shrq $51, %rcx andq %rax, %rdi imulq $19, %rcx, %rcx addq %rcx, %r12 andq %rax, %r8 movq %r12, 312(%rsp) movq %rdx, 320(%rsp) movq %rsi, 328(%rsp) movq %rdi, 336(%rsp) movq %r8, 344(%rsp) movq 376(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 248(%rsp) movq %rax, %r10 movq %rdx, %r9 movq 384(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 240(%rsp) addq %rax, %r10 adcq %rdx, %r9 movq 352(%rsp), %rax mulq 232(%rsp) addq %rax, %r10 adcq %rdx, %r9 movq 352(%rsp), %rax mulq 240(%rsp) movq %rax, %rdi movq %rdx, %rbx movq 352(%rsp), %rax mulq 248(%rsp) movq %rax, %rsi movq %rdx, %rcx movq 352(%rsp), %rax mulq 256(%rsp) movq %rax, %r12 movq %rdx, %r8 movq 352(%rsp), %rax mulq 264(%rsp) movq %rax, %r11 movq %rdx, %rbp movq 360(%rsp), %rax mulq 232(%rsp) addq %rax, %rdi adcq %rdx, %rbx movq 360(%rsp), %rax mulq 240(%rsp) addq %rax, %rsi adcq %rdx, %rcx movq 360(%rsp), %rax mulq 248(%rsp) addq %rax, %r12 adcq %rdx, %r8 movq 360(%rsp), %rax mulq 256(%rsp) addq %rax, %r11 adcq %rdx, %rbp movq 360(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %r10 adcq %rdx, %r9 movq 368(%rsp), %rax mulq 232(%rsp) addq %rax, %rsi adcq %rdx, %rcx movq 368(%rsp), %rax mulq 240(%rsp) addq %rax, %r12 adcq %rdx, %r8 movq 368(%rsp), %rax mulq 248(%rsp) addq %rax, %r11 adcq %rdx, %rbp movq 368(%rsp), %rax imulq $19, %rax, %rax mulq 256(%rsp) addq %rax, %r10 adcq %rdx, %r9 movq 368(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %rdi adcq %rdx, %rbx movq 376(%rsp), %rax mulq 232(%rsp) addq %rax, %r12 adcq %rdx, %r8 movq 376(%rsp), %rax mulq 240(%rsp) addq %rax, %r11 adcq %rdx, %rbp movq 32(%rsp), %rax mulq 256(%rsp) addq %rax, %rdi adcq %rdx, %rbx movq 32(%rsp), %rax mulq 264(%rsp) addq %rax, %rsi adcq %rdx, %rcx movq 384(%rsp), %rax mulq 232(%rsp) addq %rax, %r11 adcq %rdx, %rbp movq 24(%rsp), %rax mulq 248(%rsp) addq %rax, %rdi adcq %rdx, %rbx movq 24(%rsp), %rax mulq 256(%rsp) addq %rax, %rsi adcq %rdx, %rcx movq 24(%rsp), %rax mulq 264(%rsp) addq %rax, %r12 adcq %rdx, %r8 movq $2251799813685247, %rax shldq $13, %r10, %r9 andq %rax, %r10 shldq $13, %rdi, %rbx andq %rax, %rdi addq %r9, %rdi shldq $13, %rsi, %rcx andq %rax, %rsi addq %rbx, %rsi shldq $13, %r12, %r8 andq %rax, %r12 addq %rcx, %r12 shldq $13, %r11, %rbp andq %rax, %r11 addq %r8, %r11 imulq $19, %rbp, %rcx addq %rcx, %r10 movq %r10, %rcx shrq $51, %rcx addq %rdi, %rcx movq %rcx, %rdx shrq $51, %rcx andq %rax, %r10 addq %rsi, %rcx movq %rcx, %rsi shrq $51, %rcx andq %rax, %rdx addq %r12, %rcx movq %rcx, %rdi shrq $51, %rcx andq %rax, %rsi addq %r11, %rcx movq %rcx, %r8 shrq $51, %rcx andq %rax, %rdi imulq $19, %rcx, %rcx addq %rcx, %r10 andq %rax, %r8 movq %r10, 352(%rsp) movq %rdx, 360(%rsp) movq %rsi, 368(%rsp) movq %rdi, 376(%rsp) movq %r8, 384(%rsp) movq 272(%rsp), %rax mulq 272(%rsp) movq %rax, %r11 movq %rdx, %rbx movq 272(%rsp), %rax shlq $1, %rax mulq 280(%rsp) movq %rax, %r12 movq %rdx, %r9 movq 272(%rsp), %rax shlq $1, %rax mulq 288(%rsp) movq %rax, %rdi movq %rdx, %rcx movq 272(%rsp), %rax shlq $1, %rax mulq 296(%rsp) movq %rax, %rsi movq %rdx, %r10 movq 272(%rsp), %rax shlq $1, %rax mulq 304(%rsp) movq %rax, %rbp movq %rdx, %r8 movq 280(%rsp), %rax mulq 280(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 280(%rsp), %rax shlq $1, %rax mulq 288(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 280(%rsp), %rax shlq $1, %rax mulq 296(%rsp) addq %rax, %rbp adcq %rdx, %r8 movq 280(%rsp), %rax imulq $38, %rax, %rax mulq 304(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 288(%rsp), %rax mulq 288(%rsp) addq %rax, %rbp adcq %rdx, %r8 movq 288(%rsp), %rax imulq $38, %rax, %rax mulq 296(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 288(%rsp), %rax imulq $38, %rax, %rax mulq 304(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 296(%rsp), %rax imulq $19, %rax, %rax mulq 296(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 296(%rsp), %rax imulq $38, %rax, %rax mulq 304(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 304(%rsp), %rax imulq $19, %rax, %rax mulq 304(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq $2251799813685247, %rax shldq $13, %r11, %rbx andq %rax, %r11 shldq $13, %r12, %r9 andq %rax, %r12 addq %rbx, %r12 shldq $13, %rdi, %rcx andq %rax, %rdi addq %r9, %rdi shldq $13, %rsi, %r10 andq %rax, %rsi addq %rcx, %rsi shldq $13, %rbp, %r8 andq %rax, %rbp addq %r10, %rbp imulq $19, %r8, %rcx addq %rcx, %r11 movq %r11, %rcx shrq $51, %rcx addq %r12, %rcx andq %rax, %r11 movq %rcx, %rdx shrq $51, %rcx addq %rdi, %rcx andq %rax, %rdx movq %rcx, %rdi shrq $51, %rcx addq %rsi, %rcx andq %rax, %rdi movq %rcx, %rsi shrq $51, %rcx addq %rbp, %rcx andq %rax, %rsi movq %rcx, %r8 shrq $51, %rcx imulq $19, %rcx, %rcx addq %rcx, %r11 andq %rax, %r8 movq %r11, 272(%rsp) movq %rdx, 280(%rsp) movq %rdi, 288(%rsp) movq %rsi, 296(%rsp) movq %r8, 304(%rsp) movq 232(%rsp), %rax mulq 232(%rsp) movq %rax, %rcx movq %rdx, %rsi movq 232(%rsp), %rax shlq $1, %rax mulq 240(%rsp) movq %rax, %rbp movq %rdx, %r10 movq 232(%rsp), %rax shlq $1, %rax mulq 248(%rsp) movq %rax, %rdi movq %rdx, %r11 movq 232(%rsp), %rax shlq $1, %rax mulq 256(%rsp) movq %rax, %r12 movq %rdx, %r8 movq 232(%rsp), %rax shlq $1, %rax mulq 264(%rsp) movq %rax, %rbx movq %rdx, %r9 movq 240(%rsp), %rax mulq 240(%rsp) addq %rax, %rdi adcq %rdx, %r11 movq 240(%rsp), %rax shlq $1, %rax mulq 248(%rsp) addq %rax, %r12 adcq %rdx, %r8 movq 240(%rsp), %rax shlq $1, %rax mulq 256(%rsp) addq %rax, %rbx adcq %rdx, %r9 movq 240(%rsp), %rax imulq $38, %rax, %rax mulq 264(%rsp) addq %rax, %rcx adcq %rdx, %rsi movq 248(%rsp), %rax mulq 248(%rsp) addq %rax, %rbx adcq %rdx, %r9 movq 248(%rsp), %rax imulq $38, %rax, %rax mulq 256(%rsp) addq %rax, %rcx adcq %rdx, %rsi movq 248(%rsp), %rax imulq $38, %rax, %rax mulq 264(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 256(%rsp), %rax imulq $19, %rax, %rax mulq 256(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 256(%rsp), %rax imulq $38, %rax, %rax mulq 264(%rsp) addq %rax, %rdi adcq %rdx, %r11 movq 264(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %r12 adcq %rdx, %r8 movq $2251799813685247, %rax shldq $13, %rcx, %rsi andq %rax, %rcx shldq $13, %rbp, %r10 andq %rax, %rbp addq %rsi, %rbp shldq $13, %rdi, %r11 andq %rax, %rdi addq %r10, %rdi shldq $13, %r12, %r8 andq %rax, %r12 addq %r11, %r12 shldq $13, %rbx, %r9 andq %rax, %rbx addq %r8, %rbx imulq $19, %r9, %rdx addq %rdx, %rcx movq %rcx, %rdx shrq $51, %rdx addq %rbp, %rdx andq %rax, %rcx movq %rdx, %rsi shrq $51, %rdx addq %rdi, %rdx andq %rax, %rsi movq %rdx, %rdi shrq $51, %rdx addq %r12, %rdx andq %rax, %rdi movq %rdx, %r8 shrq $51, %rdx addq %rbx, %rdx andq %rax, %r8 movq %rdx, %r9 shrq $51, %rdx imulq $19, %rdx, %rdx addq %rdx, %rcx andq %rax, %r9 movq %rcx, 232(%rsp) movq %rsi, 240(%rsp) movq %rdi, 248(%rsp) movq %r8, 256(%rsp) movq %r9, 264(%rsp) movq 312(%rsp), %rax movq 320(%rsp), %rcx movq 328(%rsp), %rdx movq 336(%rsp), %rsi movq 344(%rsp), %rdi addq 352(%rsp), %rax addq 360(%rsp), %rcx addq 368(%rsp), %rdx addq 376(%rsp), %rsi addq 384(%rsp), %rdi movq %rax, 392(%rsp) movq %rcx, 400(%rsp) movq %rdx, 408(%rsp) movq %rsi, 416(%rsp) movq %rdi, 424(%rsp) movq 312(%rsp), %rax movq 320(%rsp), %rcx movq 328(%rsp), %rdx movq 336(%rsp), %rsi movq 344(%rsp), %rdi movq $4503599627370458, %r8 movq $4503599627370494, %r9 addq %r8, %rax addq %r9, %rcx addq %r9, %rdx addq %r9, %rsi addq %r9, %rdi subq 352(%rsp), %rax subq 360(%rsp), %rcx subq 368(%rsp), %rdx subq 376(%rsp), %rsi subq 384(%rsp), %rdi movq %rax, 352(%rsp) movq %rcx, 360(%rsp) movq %rdx, 368(%rsp) movq %rsi, 376(%rsp) movq %rdi, 384(%rsp) movq 296(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 248(%rsp) movq %rax, %r8 movq %rdx, %r11 movq 304(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 240(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 272(%rsp), %rax mulq 232(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 272(%rsp), %rax mulq 240(%rsp) movq %rax, %r10 movq %rdx, %rbx movq 272(%rsp), %rax mulq 248(%rsp) movq %rax, %rdi movq %rdx, %rcx movq 272(%rsp), %rax mulq 256(%rsp) movq %rax, %rsi movq %rdx, %r12 movq 272(%rsp), %rax mulq 264(%rsp) movq %rax, %rbp movq %rdx, %r9 movq 280(%rsp), %rax mulq 232(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 280(%rsp), %rax mulq 240(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 280(%rsp), %rax mulq 248(%rsp) addq %rax, %rsi adcq %rdx, %r12 movq 280(%rsp), %rax mulq 256(%rsp) addq %rax, %rbp adcq %rdx, %r9 movq 280(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 288(%rsp), %rax mulq 232(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 288(%rsp), %rax mulq 240(%rsp) addq %rax, %rsi adcq %rdx, %r12 movq 288(%rsp), %rax mulq 248(%rsp) addq %rax, %rbp adcq %rdx, %r9 movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 256(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 296(%rsp), %rax mulq 232(%rsp) addq %rax, %rsi adcq %rdx, %r12 movq 296(%rsp), %rax mulq 240(%rsp) addq %rax, %rbp adcq %rdx, %r9 movq 24(%rsp), %rax mulq 256(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 24(%rsp), %rax mulq 264(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 304(%rsp), %rax mulq 232(%rsp) addq %rax, %rbp adcq %rdx, %r9 movq 32(%rsp), %rax mulq 248(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 32(%rsp), %rax mulq 256(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 32(%rsp), %rax mulq 264(%rsp) addq %rax, %rsi adcq %rdx, %r12 movq $2251799813685247, %rax shldq $13, %r8, %r11 andq %rax, %r8 shldq $13, %r10, %rbx andq %rax, %r10 addq %r11, %r10 shldq $13, %rdi, %rcx andq %rax, %rdi addq %rbx, %rdi shldq $13, %rsi, %r12 andq %rax, %rsi addq %rcx, %rsi shldq $13, %rbp, %r9 andq %rax, %rbp addq %r12, %rbp imulq $19, %r9, %rcx addq %rcx, %r8 movq %r8, %rcx shrq $51, %rcx addq %r10, %rcx movq %rcx, %rdx shrq $51, %rcx andq %rax, %r8 addq %rdi, %rcx movq %rcx, %rdi shrq $51, %rcx andq %rax, %rdx addq %rsi, %rcx movq %rcx, %rsi shrq $51, %rcx andq %rax, %rdi addq %rbp, %rcx movq %rcx, %r9 shrq $51, %rcx andq %rax, %rsi imulq $19, %rcx, %rcx addq %rcx, %r8 andq %rax, %r9 movq %r8, 72(%rsp) movq %rdx, 80(%rsp) movq %rdi, 88(%rsp) movq %rsi, 96(%rsp) movq %r9, 104(%rsp) movq 272(%rsp), %rax movq 280(%rsp), %rcx movq 288(%rsp), %rdx movq 296(%rsp), %rsi movq 304(%rsp), %rdi movq $4503599627370458, %r8 movq $4503599627370494, %r9 addq %r8, %rax addq %r9, %rcx addq %r9, %rdx addq %r9, %rsi addq %r9, %rdi subq 232(%rsp), %rax subq 240(%rsp), %rcx subq 248(%rsp), %rdx subq 256(%rsp), %rsi subq 264(%rsp), %rdi movq %rax, 232(%rsp) movq %rcx, 240(%rsp) movq %rdx, 248(%rsp) movq %rsi, 256(%rsp) movq %rdi, 264(%rsp) movq 352(%rsp), %rax mulq 352(%rsp) movq %rax, %rcx movq %rdx, %r8 movq 352(%rsp), %rax shlq $1, %rax mulq 360(%rsp) movq %rax, %r9 movq %rdx, %r11 movq 352(%rsp), %rax shlq $1, %rax mulq 368(%rsp) movq %rax, %rdi movq %rdx, %r10 movq 352(%rsp), %rax shlq $1, %rax mulq 376(%rsp) movq %rax, %rbx movq %rdx, %rbp movq 352(%rsp), %rax shlq $1, %rax mulq 384(%rsp) movq %rax, %r12 movq %rdx, %rsi movq 360(%rsp), %rax mulq 360(%rsp) addq %rax, %rdi adcq %rdx, %r10 movq 360(%rsp), %rax shlq $1, %rax mulq 368(%rsp) addq %rax, %rbx adcq %rdx, %rbp movq 360(%rsp), %rax shlq $1, %rax mulq 376(%rsp) addq %rax, %r12 adcq %rdx, %rsi movq 360(%rsp), %rax imulq $38, %rax, %rax mulq 384(%rsp) addq %rax, %rcx adcq %rdx, %r8 movq 368(%rsp), %rax mulq 368(%rsp) addq %rax, %r12 adcq %rdx, %rsi movq 368(%rsp), %rax imulq $38, %rax, %rax mulq 376(%rsp) addq %rax, %rcx adcq %rdx, %r8 movq 368(%rsp), %rax imulq $38, %rax, %rax mulq 384(%rsp) addq %rax, %r9 adcq %rdx, %r11 movq 376(%rsp), %rax imulq $19, %rax, %rax mulq 376(%rsp) addq %rax, %r9 adcq %rdx, %r11 movq 376(%rsp), %rax imulq $38, %rax, %rax mulq 384(%rsp) addq %rax, %rdi adcq %rdx, %r10 movq 384(%rsp), %rax imulq $19, %rax, %rax mulq 384(%rsp) addq %rax, %rbx adcq %rdx, %rbp movq $2251799813685247, %rax shldq $13, %rcx, %r8 andq %rax, %rcx shldq $13, %r9, %r11 andq %rax, %r9 addq %r8, %r9 shldq $13, %rdi, %r10 andq %rax, %rdi addq %r11, %rdi shldq $13, %rbx, %rbp andq %rax, %rbx addq %r10, %rbx shldq $13, %r12, %rsi andq %rax, %r12 addq %rbp, %r12 imulq $19, %rsi, %rdx addq %rdx, %rcx movq %rcx, %rdx shrq $51, %rdx addq %r9, %rdx andq %rax, %rcx movq %rdx, %rsi shrq $51, %rdx addq %rdi, %rdx andq %rax, %rsi movq %rdx, %rdi shrq $51, %rdx addq %rbx, %rdx andq %rax, %rdi movq %rdx, %r8 shrq $51, %rdx addq %r12, %rdx andq %rax, %r8 movq %rdx, %r9 shrq $51, %rdx imulq $19, %rdx, %rdx addq %rdx, %rcx andq %rax, %r9 movq %rcx, 352(%rsp) movq %rsi, 360(%rsp) movq %rdi, 368(%rsp) movq %r8, 376(%rsp) movq %r9, 384(%rsp) movq $996679680, %rcx movq 232(%rsp), %rax mulq %rcx shrq $13, %rax movq %rax, %rsi movq %rdx, %rdi movq 240(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %rdi movq %rdx, %r8 movq 248(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %r8 movq %rdx, %r9 movq 256(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %r9 movq %rdx, %r10 movq 264(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %r10 imulq $19, %rdx, %rax addq %rax, %rsi addq 272(%rsp), %rsi addq 280(%rsp), %rdi addq 288(%rsp), %r8 addq 296(%rsp), %r9 addq 304(%rsp), %r10 movq %rsi, 272(%rsp) movq %rdi, 280(%rsp) movq %r8, 288(%rsp) movq %r9, 296(%rsp) movq %r10, 304(%rsp) movq 392(%rsp), %rax mulq 392(%rsp) movq %rax, %rsi movq %rdx, %r10 movq 392(%rsp), %rax shlq $1, %rax mulq 400(%rsp) movq %rax, %rbx movq %rdx, %rcx movq 392(%rsp), %rax shlq $1, %rax mulq 408(%rsp) movq %rax, %r11 movq %rdx, %rbp movq 392(%rsp), %rax shlq $1, %rax mulq 416(%rsp) movq %rax, %r12 movq %rdx, %r9 movq 392(%rsp), %rax shlq $1, %rax mulq 424(%rsp) movq %rax, %rdi movq %rdx, %r8 movq 400(%rsp), %rax mulq 400(%rsp) addq %rax, %r11 adcq %rdx, %rbp movq 400(%rsp), %rax shlq $1, %rax mulq 408(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 400(%rsp), %rax shlq $1, %rax mulq 416(%rsp) addq %rax, %rdi adcq %rdx, %r8 movq 400(%rsp), %rax imulq $38, %rax, %rax mulq 424(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 408(%rsp), %rax mulq 408(%rsp) addq %rax, %rdi adcq %rdx, %r8 movq 408(%rsp), %rax imulq $38, %rax, %rax mulq 416(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 408(%rsp), %rax imulq $38, %rax, %rax mulq 424(%rsp) addq %rax, %rbx adcq %rdx, %rcx movq 416(%rsp), %rax imulq $19, %rax, %rax mulq 416(%rsp) addq %rax, %rbx adcq %rdx, %rcx movq 416(%rsp), %rax imulq $38, %rax, %rax mulq 424(%rsp) addq %rax, %r11 adcq %rdx, %rbp movq 424(%rsp), %rax imulq $19, %rax, %rax mulq 424(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq $2251799813685247, %rax shldq $13, %rsi, %r10 andq %rax, %rsi shldq $13, %rbx, %rcx andq %rax, %rbx addq %r10, %rbx shldq $13, %r11, %rbp andq %rax, %r11 addq %rcx, %r11 shldq $13, %r12, %r9 andq %rax, %r12 addq %rbp, %r12 shldq $13, %rdi, %r8 andq %rax, %rdi addq %r9, %rdi imulq $19, %r8, %rcx addq %rcx, %rsi movq %rsi, %rcx shrq $51, %rcx addq %rbx, %rcx andq %rax, %rsi movq %rcx, %rdx shrq $51, %rcx addq %r11, %rcx andq %rax, %rdx movq %rcx, %r8 shrq $51, %rcx addq %r12, %rcx andq %rax, %r8 movq %rcx, %r9 shrq $51, %rcx addq %rdi, %rcx andq %rax, %r9 movq %rcx, %rdi shrq $51, %rcx imulq $19, %rcx, %rcx addq %rcx, %rsi andq %rax, %rdi movq %rsi, 112(%rsp) movq %rdx, 120(%rsp) movq %r8, 128(%rsp) movq %r9, 136(%rsp) movq %rdi, 144(%rsp) movq 216(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 368(%rsp) movq %rax, %r9 movq %rdx, %rsi movq 224(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 360(%rsp) addq %rax, %r9 adcq %rdx, %rsi movq 192(%rsp), %rax mulq 352(%rsp) addq %rax, %r9 adcq %rdx, %rsi movq 192(%rsp), %rax mulq 360(%rsp) movq %rax, %r10 movq %rdx, %rcx movq 192(%rsp), %rax mulq 368(%rsp) movq %rax, %rbx movq %rdx, %r12 movq 192(%rsp), %rax mulq 376(%rsp) movq %rax, %rdi movq %rdx, %rbp movq 192(%rsp), %rax mulq 384(%rsp) movq %rax, %r8 movq %rdx, %r11 movq 200(%rsp), %rax mulq 352(%rsp) addq %rax, %r10 adcq %rdx, %rcx movq 200(%rsp), %rax mulq 360(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 200(%rsp), %rax mulq 368(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq 200(%rsp), %rax mulq 376(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 200(%rsp), %rax imulq $19, %rax, %rax mulq 384(%rsp) addq %rax, %r9 adcq %rdx, %rsi movq 208(%rsp), %rax mulq 352(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 208(%rsp), %rax mulq 360(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq 208(%rsp), %rax mulq 368(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 208(%rsp), %rax imulq $19, %rax, %rax mulq 376(%rsp) addq %rax, %r9 adcq %rdx, %rsi movq 208(%rsp), %rax imulq $19, %rax, %rax mulq 384(%rsp) addq %rax, %r10 adcq %rdx, %rcx movq 216(%rsp), %rax mulq 352(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq 216(%rsp), %rax mulq 360(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 32(%rsp), %rax mulq 376(%rsp) addq %rax, %r10 adcq %rdx, %rcx movq 32(%rsp), %rax mulq 384(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 224(%rsp), %rax mulq 352(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 24(%rsp), %rax mulq 368(%rsp) addq %rax, %r10 adcq %rdx, %rcx movq 24(%rsp), %rax mulq 376(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 24(%rsp), %rax mulq 384(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq $2251799813685247, %rax shldq $13, %r9, %rsi andq %rax, %r9 shldq $13, %r10, %rcx andq %rax, %r10 addq %rsi, %r10 shldq $13, %rbx, %r12 andq %rax, %rbx addq %rcx, %rbx shldq $13, %rdi, %rbp andq %rax, %rdi addq %r12, %rdi shldq $13, %r8, %r11 andq %rax, %r8 addq %rbp, %r8 imulq $19, %r11, %rcx addq %rcx, %r9 movq %r9, %rcx shrq $51, %rcx addq %r10, %rcx movq %rcx, %rdx shrq $51, %rcx andq %rax, %r9 addq %rbx, %rcx movq %rcx, %rsi shrq $51, %rcx andq %rax, %rdx addq %rdi, %rcx movq %rcx, %rdi shrq $51, %rcx andq %rax, %rsi addq %r8, %rcx movq %rcx, %r8 shrq $51, %rcx andq %rax, %rdi imulq $19, %rcx, %rcx addq %rcx, %r9 andq %rax, %r8 movq %r9, 152(%rsp) movq %rdx, 160(%rsp) movq %rsi, 168(%rsp) movq %rdi, 176(%rsp) movq %r8, 184(%rsp) movq 256(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 288(%rsp) movq %rax, %rbx movq %rdx, %r12 movq 264(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 280(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 232(%rsp), %rax mulq 272(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 232(%rsp), %rax mulq 280(%rsp) movq %rax, %r11 movq %rdx, %rsi movq 232(%rsp), %rax mulq 288(%rsp) movq %rax, %r8 movq %rdx, %r9 movq 232(%rsp), %rax mulq 296(%rsp) movq %rax, %rcx movq %rdx, %rdi movq 232(%rsp), %rax mulq 304(%rsp) movq %rax, %r10 movq %rdx, %rbp movq 240(%rsp), %rax mulq 272(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 240(%rsp), %rax mulq 280(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 240(%rsp), %rax mulq 288(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 240(%rsp), %rax mulq 296(%rsp) addq %rax, %r10 adcq %rdx, %rbp movq 240(%rsp), %rax imulq $19, %rax, %rax mulq 304(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 248(%rsp), %rax mulq 272(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 248(%rsp), %rax mulq 280(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 248(%rsp), %rax mulq 288(%rsp) addq %rax, %r10 adcq %rdx, %rbp movq 248(%rsp), %rax imulq $19, %rax, %rax mulq 296(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 248(%rsp), %rax imulq $19, %rax, %rax mulq 304(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 256(%rsp), %rax mulq 272(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 256(%rsp), %rax mulq 280(%rsp) addq %rax, %r10 adcq %rdx, %rbp movq 24(%rsp), %rax mulq 296(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 24(%rsp), %rax mulq 304(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 264(%rsp), %rax mulq 272(%rsp) addq %rax, %r10 adcq %rdx, %rbp movq 32(%rsp), %rax mulq 288(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 32(%rsp), %rax mulq 296(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 32(%rsp), %rax mulq 304(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq $2251799813685247, %r13 shldq $13, %rbx, %r12 andq %r13, %rbx shldq $13, %r11, %rsi andq %r13, %r11 addq %r12, %r11 shldq $13, %r8, %r9 andq %r13, %r8 addq %rsi, %r8 shldq $13, %rcx, %rdi andq %r13, %rcx addq %r9, %rcx shldq $13, %r10, %rbp andq %r13, %r10 addq %rdi, %r10 imulq $19, %rbp, %rax addq %rax, %rbx movq %rbx, %r9 shrq $51, %r9 addq %r11, %r9 movq %r9, %rax shrq $51, %r9 andq %r13, %rbx addq %r8, %r9 movq %r9, %rdx shrq $51, %r9 andq %r13, %rax addq %rcx, %r9 movq %r9, %rsi shrq $51, %r9 andq %r13, %rdx addq %r10, %r9 movq %r9, %rdi shrq $51, %r9 andq %r13, %rsi imulq $19, %r9, %rcx addq %rcx, %rbx andq %r13, %rdi movq 16(%rsp), %rcx cmpq $0, %rcx jnbe Ljade_scalarmult_curve25519_amd64_ref5$28 movq %rbx, 152(%rsp) movq %rax, 160(%rsp) movq %rdx, 168(%rsp) movq %rsi, 176(%rsp) movq %rdi, 184(%rsp) movq 152(%rsp), %rax movq %rax, 112(%rsp) movq 160(%rsp), %rax movq %rax, 120(%rsp) movq 168(%rsp), %rax movq %rax, 128(%rsp) movq 176(%rsp), %rax movq %rax, 136(%rsp) movq 184(%rsp), %rax movq %rax, 144(%rsp) leaq 112(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$27(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$27: leaq 8(%rsp), %rsp movq 112(%rsp), %rax movq %rax, 192(%rsp) movq 120(%rsp), %rax movq %rax, 200(%rsp) movq 128(%rsp), %rax movq %rax, 208(%rsp) movq 136(%rsp), %rax movq %rax, 216(%rsp) movq 144(%rsp), %rax movq %rax, 224(%rsp) leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$26(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$26: leaq 8(%rsp), %rsp leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$25(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$25: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$24(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$24: leaq 24(%rsp), %rsp leaq 112(%rsp), %r9 leaq 192(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$23(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$23: leaq 24(%rsp), %rsp movq 112(%rsp), %rax movq %rax, 152(%rsp) movq 120(%rsp), %rax movq %rax, 160(%rsp) movq 128(%rsp), %rax movq %rax, 168(%rsp) movq 136(%rsp), %rax movq %rax, 176(%rsp) movq 144(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$22(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$22: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$21(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$21: leaq 24(%rsp), %rsp movq 192(%rsp), %rax movq %rax, 152(%rsp) movq 200(%rsp), %rax movq %rax, 160(%rsp) movq 208(%rsp), %rax movq %rax, 168(%rsp) movq 216(%rsp), %rax movq %rax, 176(%rsp) movq 224(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$20(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$20: leaq 8(%rsp), %rsp movl $4, %r13d leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$19(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$19: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$18(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$18: leaq 24(%rsp), %rsp movl $10, %r13d movq 192(%rsp), %rax movq %rax, 152(%rsp) movq 200(%rsp), %rax movq %rax, 160(%rsp) movq 208(%rsp), %rax movq %rax, 168(%rsp) movq 216(%rsp), %rax movq %rax, 176(%rsp) movq 224(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$17(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$17: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 192(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$16(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$16: leaq 24(%rsp), %rsp movl $20, %r13d movq 152(%rsp), %rax movq %rax, 272(%rsp) movq 160(%rsp), %rax movq %rax, 280(%rsp) movq 168(%rsp), %rax movq %rax, 288(%rsp) movq 176(%rsp), %rax movq %rax, 296(%rsp) movq 184(%rsp), %rax movq %rax, 304(%rsp) leaq 272(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$15(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$15: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 272(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$14(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$14: leaq 24(%rsp), %rsp movl $10, %r13d leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$13(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$13: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$12(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$12: leaq 24(%rsp), %rsp movl $50, %r13d movq 192(%rsp), %rax movq %rax, 152(%rsp) movq 200(%rsp), %rax movq %rax, 160(%rsp) movq 208(%rsp), %rax movq %rax, 168(%rsp) movq 216(%rsp), %rax movq %rax, 176(%rsp) movq 224(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$11(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$11: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 192(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$10(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$10: leaq 24(%rsp), %rsp movl $100, %r13d movq 152(%rsp), %rax movq %rax, 272(%rsp) movq 160(%rsp), %rax movq %rax, 280(%rsp) movq 168(%rsp), %rax movq %rax, 288(%rsp) movq 176(%rsp), %rax movq %rax, 296(%rsp) movq 184(%rsp), %rax movq %rax, 304(%rsp) leaq 272(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$9(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$9: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 272(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$8(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$8: leaq 24(%rsp), %rsp movl $50, %r13d leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$7(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$7: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$6(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$6: leaq 24(%rsp), %rsp movl $4, %r13d leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$5(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$5: leaq 8(%rsp), %rsp leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$4(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$4: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 112(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$3(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$3: leaq 24(%rsp), %rsp movq 96(%rsp), %rax imulq $19, %rax, %rax movq %rax, 8(%rsp) mulq 208(%rsp) movq %rax, %r10 movq %rdx, %rsi movq 104(%rsp), %rax imulq $19, %rax, %rax movq %rax, 16(%rsp) mulq 200(%rsp) addq %rax, %r10 adcq %rdx, %rsi movq 72(%rsp), %rax mulq 192(%rsp) addq %rax, %r10 adcq %rdx, %rsi movq 72(%rsp), %rax mulq 200(%rsp) movq %rax, %rbp movq %rdx, %rdi movq 72(%rsp), %rax mulq 208(%rsp) movq %rax, %rcx movq %rdx, %r12 movq 72(%rsp), %rax mulq 216(%rsp) movq %rax, %r9 movq %rdx, %r11 movq 72(%rsp), %rax mulq 224(%rsp) movq %rax, %r8 movq %rdx, %rbx movq 80(%rsp), %rax mulq 192(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 80(%rsp), %rax mulq 200(%rsp) addq %rax, %rcx adcq %rdx, %r12 movq 80(%rsp), %rax mulq 208(%rsp) addq %rax, %r9 adcq %rdx, %r11 movq 80(%rsp), %rax mulq 216(%rsp) addq %rax, %r8 adcq %rdx, %rbx movq 80(%rsp), %rax imulq $19, %rax, %rax mulq 224(%rsp) addq %rax, %r10 adcq %rdx, %rsi movq 88(%rsp), %rax mulq 192(%rsp) addq %rax, %rcx adcq %rdx, %r12 movq 88(%rsp), %rax mulq 200(%rsp) addq %rax, %r9 adcq %rdx, %r11 movq 88(%rsp), %rax mulq 208(%rsp) addq %rax, %r8 adcq %rdx, %rbx movq 88(%rsp), %rax imulq $19, %rax, %rax mulq 216(%rsp) addq %rax, %r10 adcq %rdx, %rsi movq 88(%rsp), %rax imulq $19, %rax, %rax mulq 224(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 96(%rsp), %rax mulq 192(%rsp) addq %rax, %r9 adcq %rdx, %r11 movq 96(%rsp), %rax mulq 200(%rsp) addq %rax, %r8 adcq %rdx, %rbx movq 8(%rsp), %rax mulq 216(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 8(%rsp), %rax mulq 224(%rsp) addq %rax, %rcx adcq %rdx, %r12 movq 104(%rsp), %rax mulq 192(%rsp) addq %rax, %r8 adcq %rdx, %rbx movq 16(%rsp), %rax mulq 208(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 16(%rsp), %rax mulq 216(%rsp) addq %rax, %rcx adcq %rdx, %r12 movq 16(%rsp), %rax mulq 224(%rsp) addq %rax, %r9 adcq %rdx, %r11 movq $2251799813685247, %rax shldq $13, %r10, %rsi andq %rax, %r10 shldq $13, %rbp, %rdi andq %rax, %rbp addq %rsi, %rbp shldq $13, %rcx, %r12 andq %rax, %rcx addq %rdi, %rcx shldq $13, %r9, %r11 andq %rax, %r9 addq %r12, %r9 shldq $13, %r8, %rbx andq %rax, %r8 addq %r11, %r8 imulq $19, %rbx, %rdx addq %rdx, %r10 movq %r10, %r11 shrq $51, %r11 addq %rbp, %r11 movq %r11, %rdx shrq $51, %r11 andq %rax, %r10 addq %rcx, %r11 movq %r11, %rcx shrq $51, %r11 andq %rax, %rdx addq %r9, %r11 movq %r11, %rsi shrq $51, %r11 andq %rax, %rcx addq %r8, %r11 movq %r11, %rdi shrq $51, %r11 andq %rax, %rsi imulq $19, %r11, %r8 addq %r8, %r10 andq %rax, %rdi movq $2251799813685247, %rax movq %rax, %r8 addq $-18, %r8 movq $3, %r9 jmp Ljade_scalarmult_curve25519_amd64_ref5$1 Ljade_scalarmult_curve25519_amd64_ref5$2: movq %r10, %r11 shrq $51, %r11 andq %rax, %r10 addq %r11, %rdx movq %rdx, %r11 shrq $51, %r11 andq %rax, %rdx addq %r11, %rcx movq %rcx, %r11 shrq $51, %r11 andq %rax, %rcx addq %r11, %rsi movq %rsi, %r11 shrq $51, %r11 andq %rax, %rsi addq %r11, %rdi movq %rdi, %r11 shrq $51, %r11 andq %rax, %rdi imulq $19, %r11, %r11 addq %r11, %r10 addq $-1, %r9 Ljade_scalarmult_curve25519_amd64_ref5$1: cmpq $0, %r9 jnbe Ljade_scalarmult_curve25519_amd64_ref5$2 movq $1, %r11 cmpq %r8, %r10 cmovl %r9, %r11 cmpq %rax, %rdx cmovne %r9, %r11 cmpq %rax, %rcx cmovne %r9, %r11 cmpq %rax, %rsi cmovne %r9, %r11 cmpq %rax, %rdi cmovne %r9, %r11 negq %r11 andq %r11, %rax andq %r11, %r8 subq %r8, %r10 subq %rax, %rdx subq %rax, %rcx subq %rax, %rsi subq %rax, %rdi movq %rdx, %rax shlq $51, %rax orq %r10, %rax movq %rcx, %r8 shlq $38, %r8 shrq $13, %rdx orq %rdx, %r8 movq %rsi, %rdx shlq $25, %rdx shrq $26, %rcx orq %rcx, %rdx shlq $12, %rdi shrq $39, %rsi orq %rsi, %rdi movq (%rsp), %rcx movq %rax, (%rcx) movq %r8, 8(%rcx) movq %rdx, 16(%rcx) movq %rdi, 24(%rcx) xorq %rax, %rax movq 432(%rsp), %rbx movq 440(%rsp), %rbp movq 448(%rsp), %r12 movq 456(%rsp), %r13 movq 464(%rsp), %r14 movq 472(%rsp), %rsp ret L_it_sqr5_p$1: L_it_sqr5_p$2: leaq -8(%rsp), %rsp leaq L_it_sqr5_p$3(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 L_it_sqr5_p$3: leaq 8(%rsp), %rsp decl %r13d jne L_it_sqr5_p$2 jmp *(%rsp) L_sqr5_p$1: movq (%rdi), %rax mulq (%rdi) movq %rax, %r8 movq %rdx, %rsi movq (%rdi), %rax shlq $1, %rax mulq 8(%rdi) movq %rax, %rbx movq %rdx, %r11 movq (%rdi), %rax shlq $1, %rax mulq 16(%rdi) movq %rax, %r10 movq %rdx, %r14 movq (%rdi), %rax shlq $1, %rax mulq 24(%rdi) movq %rax, %rbp movq %rdx, %r12 movq (%rdi), %rax shlq $1, %rax mulq 32(%rdi) movq %rax, %rcx movq %rdx, %r9 movq 8(%rdi), %rax mulq 8(%rdi) addq %rax, %r10 adcq %rdx, %r14 movq 8(%rdi), %rax shlq $1, %rax mulq 16(%rdi) addq %rax, %rbp adcq %rdx, %r12 movq 8(%rdi), %rax shlq $1, %rax mulq 24(%rdi) addq %rax, %rcx adcq %rdx, %r9 movq 8(%rdi), %rax imulq $38, %rax, %rax mulq 32(%rdi) addq %rax, %r8 adcq %rdx, %rsi movq 16(%rdi), %rax mulq 16(%rdi) addq %rax, %rcx adcq %rdx, %r9 movq 16(%rdi), %rax imulq $38, %rax, %rax mulq 24(%rdi) addq %rax, %r8 adcq %rdx, %rsi movq 16(%rdi), %rax imulq $38, %rax, %rax mulq 32(%rdi) addq %rax, %rbx adcq %rdx, %r11 movq 24(%rdi), %rax imulq $19, %rax, %rax mulq 24(%rdi) addq %rax, %rbx adcq %rdx, %r11 movq 24(%rdi), %rax imulq $38, %rax, %rax mulq 32(%rdi) addq %rax, %r10 adcq %rdx, %r14 movq 32(%rdi), %rax imulq $19, %rax, %rax mulq 32(%rdi) addq %rax, %rbp adcq %rdx, %r12 movq $2251799813685247, %rax shldq $13, %r8, %rsi andq %rax, %r8 shldq $13, %rbx, %r11 andq %rax, %rbx addq %rsi, %rbx shldq $13, %r10, %r14 andq %rax, %r10 addq %r11, %r10 shldq $13, %rbp, %r12 andq %rax, %rbp addq %r14, %rbp shldq $13, %rcx, %r9 andq %rax, %rcx addq %r12, %rcx imulq $19, %r9, %rdx addq %rdx, %r8 movq %r8, %rdx shrq $51, %rdx addq %rbx, %rdx andq %rax, %r8 movq %rdx, %rsi shrq $51, %rdx addq %r10, %rdx andq %rax, %rsi movq %rdx, %r9 shrq $51, %rdx addq %rbp, %rdx andq %rax, %r9 movq %rdx, %r10 shrq $51, %rdx addq %rcx, %rdx andq %rax, %r10 movq %rdx, %rcx shrq $51, %rdx imulq $19, %rdx, %rdx addq %rdx, %r8 andq %rax, %rcx movq %r8, (%rdi) movq %rsi, 8(%rdi) movq %r9, 16(%rdi) movq %r10, 24(%rdi) movq %rcx, 32(%rdi) jmp *(%rsp) L_mul5_pp$1: movq 24(%r9), %rax imulq $19, %rax, %rax movq %rax, (%rsp) mulq 16(%rbp) movq %rax, %rdi movq %rdx, %r8 movq 32(%r9), %rax imulq $19, %rax, %rax movq %rax, 8(%rsp) mulq 8(%rbp) addq %rax, %rdi adcq %rdx, %r8 movq (%r9), %rax mulq (%rbp) addq %rax, %rdi adcq %rdx, %r8 movq (%r9), %rax mulq 8(%rbp) movq %rax, %rbx movq %rdx, %r14 movq (%r9), %rax mulq 16(%rbp) movq %rax, %r11 movq %rdx, %rcx movq (%r9), %rax mulq 24(%rbp) movq %rax, %r10 movq %rdx, %r12 movq (%r9), %rax mulq 32(%rbp) movq %rax, %rsi movq %rdx, %r13 movq 8(%r9), %rax mulq (%rbp) addq %rax, %rbx adcq %rdx, %r14 movq 8(%r9), %rax mulq 8(%rbp) addq %rax, %r11 adcq %rdx, %rcx movq 8(%r9), %rax mulq 16(%rbp) addq %rax, %r10 adcq %rdx, %r12 movq 8(%r9), %rax mulq 24(%rbp) addq %rax, %rsi adcq %rdx, %r13 movq 8(%r9), %rax imulq $19, %rax, %rax mulq 32(%rbp) addq %rax, %rdi adcq %rdx, %r8 movq 16(%r9), %rax mulq (%rbp) addq %rax, %r11 adcq %rdx, %rcx movq 16(%r9), %rax mulq 8(%rbp) addq %rax, %r10 adcq %rdx, %r12 movq 16(%r9), %rax mulq 16(%rbp) addq %rax, %rsi adcq %rdx, %r13 movq 16(%r9), %rax imulq $19, %rax, %rax mulq 24(%rbp) addq %rax, %rdi adcq %rdx, %r8 movq 16(%r9), %rax imulq $19, %rax, %rax mulq 32(%rbp) addq %rax, %rbx adcq %rdx, %r14 movq 24(%r9), %rax mulq (%rbp) addq %rax, %r10 adcq %rdx, %r12 movq 24(%r9), %rax mulq 8(%rbp) addq %rax, %rsi adcq %rdx, %r13 movq (%rsp), %rax mulq 24(%rbp) addq %rax, %rbx adcq %rdx, %r14 movq (%rsp), %rax mulq 32(%rbp) addq %rax, %r11 adcq %rdx, %rcx movq 32(%r9), %rax mulq (%rbp) addq %rax, %rsi adcq %rdx, %r13 movq 8(%rsp), %rax mulq 16(%rbp) addq %rax, %rbx adcq %rdx, %r14 movq 8(%rsp), %rax mulq 24(%rbp) addq %rax, %r11 adcq %rdx, %rcx movq 8(%rsp), %rax mulq 32(%rbp) addq %rax, %r10 adcq %rdx, %r12 movq $2251799813685247, %rax shldq $13, %rdi, %r8 andq %rax, %rdi shldq $13, %rbx, %r14 andq %rax, %rbx addq %r8, %rbx shldq $13, %r11, %rcx andq %rax, %r11 addq %r14, %r11 shldq $13, %r10, %r12 andq %rax, %r10 addq %rcx, %r10 shldq $13, %rsi, %r13 andq %rax, %rsi addq %r12, %rsi imulq $19, %r13, %rcx addq %rcx, %rdi movq %rdi, %rcx shrq $51, %rcx addq %rbx, %rcx movq %rcx, %rdx shrq $51, %rcx andq %rax, %rdi addq %r11, %rcx movq %rcx, %r8 shrq $51, %rcx andq %rax, %rdx addq %r10, %rcx movq %rcx, %r10 shrq $51, %rcx andq %rax, %r8 addq %rsi, %rcx movq %rcx, %rsi shrq $51, %rcx andq %rax, %r10 imulq $19, %rcx, %rcx addq %rcx, %rdi andq %rax, %rsi movq %rdi, (%r9) movq %rdx, 8(%r9) movq %r8, 16(%r9) movq %r10, 24(%r9) movq %rsi, 32(%r9) jmp *16(%rsp)
usenix-security-verdict/verdict
60,313
deps/libcrux/sys/libjade/jazz/chacha20_avx.s
.att_syntax .text .p2align 5 .globl _jade_stream_chacha_chacha20_ietf_amd64_avx .globl jade_stream_chacha_chacha20_ietf_amd64_avx .globl _jade_stream_chacha_chacha20_ietf_amd64_avx_xor .globl jade_stream_chacha_chacha20_ietf_amd64_avx_xor _jade_stream_chacha_chacha20_ietf_amd64_avx: jade_stream_chacha_chacha20_ietf_amd64_avx: movq %rsp, %r10 leaq -592(%rsp), %rsp andq $-16, %rsp cmpq $129, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$1 vmovdqu glob_data + 64(%rip), %xmm0 vmovdqu glob_data + 48(%rip), %xmm1 vmovdqu %xmm0, (%rsp) vmovdqu %xmm1, 16(%rsp) vmovdqu glob_data + 112(%rip), %xmm0 vmovdqu glob_data + 128(%rip), %xmm1 vmovdqu glob_data + 144(%rip), %xmm2 vmovdqu glob_data + 160(%rip), %xmm3 vpbroadcastd (%rcx), %xmm4 vpbroadcastd 4(%rcx), %xmm5 vpbroadcastd 8(%rcx), %xmm6 vpbroadcastd 12(%rcx), %xmm7 vpbroadcastd 16(%rcx), %xmm8 vpbroadcastd 20(%rcx), %xmm9 vpbroadcastd 24(%rcx), %xmm10 vpbroadcastd 28(%rcx), %xmm11 vmovdqu glob_data + 96(%rip), %xmm12 vpbroadcastd (%rdx), %xmm13 vpbroadcastd 4(%rdx), %xmm14 vpbroadcastd 8(%rdx), %xmm15 vmovdqu %xmm0, 336(%rsp) vmovdqu %xmm1, 352(%rsp) vmovdqu %xmm2, 368(%rsp) vmovdqu %xmm3, 384(%rsp) vmovdqu %xmm4, 400(%rsp) vmovdqu %xmm5, 416(%rsp) vmovdqu %xmm6, 432(%rsp) vmovdqu %xmm7, 448(%rsp) vmovdqu %xmm8, 464(%rsp) vmovdqu %xmm9, 480(%rsp) vmovdqu %xmm10, 496(%rsp) vmovdqu %xmm11, 512(%rsp) vmovdqu %xmm12, 528(%rsp) vmovdqu %xmm13, 544(%rsp) vmovdqu %xmm14, 560(%rsp) vmovdqu %xmm15, 576(%rsp) jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$29 Ljade_stream_chacha_chacha20_ietf_amd64_avx$30: vmovdqu 336(%rsp), %xmm0 vmovdqu 352(%rsp), %xmm1 vmovdqu 368(%rsp), %xmm2 vmovdqu 384(%rsp), %xmm3 vmovdqu 400(%rsp), %xmm4 vmovdqu 416(%rsp), %xmm5 vmovdqu 432(%rsp), %xmm6 vmovdqu 448(%rsp), %xmm7 vmovdqu 464(%rsp), %xmm8 vmovdqu 480(%rsp), %xmm9 vmovdqu 496(%rsp), %xmm10 vmovdqu 512(%rsp), %xmm11 vmovdqu 528(%rsp), %xmm12 vmovdqu 544(%rsp), %xmm13 vmovdqu 560(%rsp), %xmm14 vmovdqu 576(%rsp), %xmm15 vmovdqu %xmm15, 32(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx$31: vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vmovdqu %xmm14, 48(%rsp) vmovdqu 32(%rsp), %xmm14 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vmovdqu %xmm14, 64(%rsp) vmovdqu 48(%rsp), %xmm14 vmovdqu %xmm14, 48(%rsp) vmovdqu 64(%rsp), %xmm14 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vmovdqu %xmm14, 32(%rsp) vmovdqu 48(%rsp), %xmm14 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$31 vmovdqu 32(%rsp), %xmm15 vpaddd 336(%rsp), %xmm0, %xmm0 vpaddd 352(%rsp), %xmm1, %xmm1 vpaddd 368(%rsp), %xmm2, %xmm2 vpaddd 384(%rsp), %xmm3, %xmm3 vpaddd 400(%rsp), %xmm4, %xmm4 vpaddd 416(%rsp), %xmm5, %xmm5 vpaddd 432(%rsp), %xmm6, %xmm6 vpaddd 448(%rsp), %xmm7, %xmm7 vpaddd 464(%rsp), %xmm8, %xmm8 vpaddd 480(%rsp), %xmm9, %xmm9 vpaddd 496(%rsp), %xmm10, %xmm10 vpaddd 512(%rsp), %xmm11, %xmm11 vpaddd 528(%rsp), %xmm12, %xmm12 vpaddd 544(%rsp), %xmm13, %xmm13 vpaddd 560(%rsp), %xmm14, %xmm14 vpaddd 576(%rsp), %xmm15, %xmm15 vmovdqu %xmm8, 80(%rsp) vmovdqu %xmm9, 96(%rsp) vmovdqu %xmm10, 112(%rsp) vmovdqu %xmm11, 128(%rsp) vmovdqu %xmm12, 144(%rsp) vmovdqu %xmm13, 160(%rsp) vmovdqu %xmm14, 176(%rsp) vmovdqu %xmm15, 192(%rsp) vpunpckldq %xmm1, %xmm0, %xmm8 vpunpckhdq %xmm1, %xmm0, %xmm0 vpunpckldq %xmm3, %xmm2, %xmm1 vpunpckhdq %xmm3, %xmm2, %xmm2 vpunpckldq %xmm5, %xmm4, %xmm3 vpunpckhdq %xmm5, %xmm4, %xmm4 vpunpckldq %xmm7, %xmm6, %xmm5 vpunpckhdq %xmm7, %xmm6, %xmm6 vpunpcklqdq %xmm1, %xmm8, %xmm7 vpunpcklqdq %xmm5, %xmm3, %xmm9 vpunpckhqdq %xmm1, %xmm8, %xmm1 vpunpckhqdq %xmm5, %xmm3, %xmm3 vpunpcklqdq %xmm2, %xmm0, %xmm5 vpunpcklqdq %xmm6, %xmm4, %xmm8 vpunpckhqdq %xmm2, %xmm0, %xmm0 vpunpckhqdq %xmm6, %xmm4, %xmm2 vmovdqu %xmm7, (%rdi) vmovdqu %xmm9, 16(%rdi) vmovdqu %xmm1, 64(%rdi) vmovdqu %xmm3, 80(%rdi) vmovdqu %xmm5, 128(%rdi) vmovdqu %xmm8, 144(%rdi) vmovdqu %xmm0, 192(%rdi) vmovdqu %xmm2, 208(%rdi) vmovdqu 80(%rsp), %xmm0 vmovdqu 112(%rsp), %xmm1 vmovdqu 144(%rsp), %xmm2 vmovdqu 176(%rsp), %xmm3 vpunpckldq 96(%rsp), %xmm0, %xmm4 vpunpckhdq 96(%rsp), %xmm0, %xmm0 vpunpckldq 128(%rsp), %xmm1, %xmm5 vpunpckhdq 128(%rsp), %xmm1, %xmm1 vpunpckldq 160(%rsp), %xmm2, %xmm6 vpunpckhdq 160(%rsp), %xmm2, %xmm2 vpunpckldq 192(%rsp), %xmm3, %xmm7 vpunpckhdq 192(%rsp), %xmm3, %xmm3 vpunpcklqdq %xmm5, %xmm4, %xmm8 vpunpcklqdq %xmm7, %xmm6, %xmm9 vpunpckhqdq %xmm5, %xmm4, %xmm4 vpunpckhqdq %xmm7, %xmm6, %xmm5 vpunpcklqdq %xmm1, %xmm0, %xmm6 vpunpcklqdq %xmm3, %xmm2, %xmm7 vpunpckhqdq %xmm1, %xmm0, %xmm0 vpunpckhqdq %xmm3, %xmm2, %xmm1 vmovdqu %xmm8, 32(%rdi) vmovdqu %xmm9, 48(%rdi) vmovdqu %xmm4, 96(%rdi) vmovdqu %xmm5, 112(%rdi) vmovdqu %xmm6, 160(%rdi) vmovdqu %xmm7, 176(%rdi) vmovdqu %xmm0, 224(%rdi) vmovdqu %xmm1, 240(%rdi) addq $256, %rdi addq $-256, %rsi vmovdqu glob_data + 0(%rip), %xmm0 vpaddd 528(%rsp), %xmm0, %xmm0 vmovdqu %xmm0, 528(%rsp) Ljade_stream_chacha_chacha20_ietf_amd64_avx$29: cmpq $256, %rsi jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx$30 cmpq $0, %rsi jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$2 vmovdqu 336(%rsp), %xmm0 vmovdqu 352(%rsp), %xmm1 vmovdqu 368(%rsp), %xmm2 vmovdqu 384(%rsp), %xmm3 vmovdqu 400(%rsp), %xmm4 vmovdqu 416(%rsp), %xmm5 vmovdqu 432(%rsp), %xmm6 vmovdqu 448(%rsp), %xmm7 vmovdqu 464(%rsp), %xmm8 vmovdqu 480(%rsp), %xmm9 vmovdqu 496(%rsp), %xmm10 vmovdqu 512(%rsp), %xmm11 vmovdqu 528(%rsp), %xmm12 vmovdqu 544(%rsp), %xmm13 vmovdqu 560(%rsp), %xmm14 vmovdqu 576(%rsp), %xmm15 vmovdqu %xmm15, 32(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx$28: vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vmovdqu %xmm14, 48(%rsp) vmovdqu 32(%rsp), %xmm14 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vmovdqu %xmm14, 64(%rsp) vmovdqu 48(%rsp), %xmm14 vmovdqu %xmm14, 48(%rsp) vmovdqu 64(%rsp), %xmm14 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vmovdqu %xmm14, 32(%rsp) vmovdqu 48(%rsp), %xmm14 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$28 vmovdqu 32(%rsp), %xmm15 vpaddd 336(%rsp), %xmm0, %xmm0 vpaddd 352(%rsp), %xmm1, %xmm1 vpaddd 368(%rsp), %xmm2, %xmm2 vpaddd 384(%rsp), %xmm3, %xmm3 vpaddd 400(%rsp), %xmm4, %xmm4 vpaddd 416(%rsp), %xmm5, %xmm5 vpaddd 432(%rsp), %xmm6, %xmm6 vpaddd 448(%rsp), %xmm7, %xmm7 vpaddd 464(%rsp), %xmm8, %xmm8 vpaddd 480(%rsp), %xmm9, %xmm9 vpaddd 496(%rsp), %xmm10, %xmm10 vpaddd 512(%rsp), %xmm11, %xmm11 vpaddd 528(%rsp), %xmm12, %xmm12 vpaddd 544(%rsp), %xmm13, %xmm13 vpaddd 560(%rsp), %xmm14, %xmm14 vpaddd 576(%rsp), %xmm15, %xmm15 vmovdqu %xmm8, 80(%rsp) vmovdqu %xmm9, 96(%rsp) vmovdqu %xmm10, 112(%rsp) vmovdqu %xmm11, 128(%rsp) vmovdqu %xmm12, 144(%rsp) vmovdqu %xmm13, 160(%rsp) vmovdqu %xmm14, 176(%rsp) vmovdqu %xmm15, 192(%rsp) vpunpckldq %xmm1, %xmm0, %xmm8 vpunpckhdq %xmm1, %xmm0, %xmm0 vpunpckldq %xmm3, %xmm2, %xmm1 vpunpckhdq %xmm3, %xmm2, %xmm2 vpunpckldq %xmm5, %xmm4, %xmm3 vpunpckhdq %xmm5, %xmm4, %xmm4 vpunpckldq %xmm7, %xmm6, %xmm5 vpunpckhdq %xmm7, %xmm6, %xmm6 vpunpcklqdq %xmm1, %xmm8, %xmm7 vpunpcklqdq %xmm5, %xmm3, %xmm9 vpunpckhqdq %xmm1, %xmm8, %xmm1 vpunpckhqdq %xmm5, %xmm3, %xmm3 vpunpcklqdq %xmm2, %xmm0, %xmm5 vpunpcklqdq %xmm6, %xmm4, %xmm8 vpunpckhqdq %xmm2, %xmm0, %xmm0 vpunpckhqdq %xmm6, %xmm4, %xmm2 vmovdqu %xmm7, 208(%rsp) vmovdqu %xmm9, 224(%rsp) vmovdqu %xmm1, 240(%rsp) vmovdqu %xmm3, 256(%rsp) vmovdqu %xmm5, 272(%rsp) vmovdqu %xmm8, 288(%rsp) vmovdqu %xmm0, 304(%rsp) vmovdqu %xmm2, 320(%rsp) vmovdqu 80(%rsp), %xmm0 vmovdqu 112(%rsp), %xmm1 vmovdqu 144(%rsp), %xmm2 vmovdqu 176(%rsp), %xmm3 vpunpckldq 96(%rsp), %xmm0, %xmm4 vpunpckhdq 96(%rsp), %xmm0, %xmm0 vpunpckldq 128(%rsp), %xmm1, %xmm5 vpunpckhdq 128(%rsp), %xmm1, %xmm1 vpunpckldq 160(%rsp), %xmm2, %xmm6 vpunpckhdq 160(%rsp), %xmm2, %xmm2 vpunpckldq 192(%rsp), %xmm3, %xmm7 vpunpckhdq 192(%rsp), %xmm3, %xmm3 vpunpcklqdq %xmm5, %xmm4, %xmm8 vpunpcklqdq %xmm7, %xmm6, %xmm9 vpunpckhqdq %xmm5, %xmm4, %xmm4 vpunpckhqdq %xmm7, %xmm6, %xmm5 vpunpcklqdq %xmm1, %xmm0, %xmm6 vpunpcklqdq %xmm3, %xmm2, %xmm7 vpunpckhqdq %xmm1, %xmm0, %xmm0 vpunpckhqdq %xmm3, %xmm2, %xmm1 vmovdqu 208(%rsp), %xmm13 vmovdqu 224(%rsp), %xmm12 vmovdqu %xmm8, %xmm11 vmovdqu %xmm9, %xmm10 vmovdqu 240(%rsp), %xmm9 vmovdqu 256(%rsp), %xmm8 vmovdqu %xmm4, %xmm3 vmovdqu %xmm5, %xmm2 cmpq $128, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$27 vmovdqu %xmm13, (%rdi) vmovdqu %xmm12, 16(%rdi) vmovdqu %xmm11, 32(%rdi) vmovdqu %xmm10, 48(%rdi) vmovdqu %xmm9, 64(%rdi) vmovdqu %xmm8, 80(%rdi) vmovdqu %xmm3, 96(%rdi) vmovdqu %xmm2, 112(%rdi) addq $128, %rdi addq $-128, %rsi vmovdqu 272(%rsp), %xmm13 vmovdqu 288(%rsp), %xmm12 vmovdqu %xmm6, %xmm11 vmovdqu %xmm7, %xmm10 vmovdqu 304(%rsp), %xmm9 vmovdqu 320(%rsp), %xmm8 vmovdqu %xmm0, %xmm3 vmovdqu %xmm1, %xmm2 Ljade_stream_chacha_chacha20_ietf_amd64_avx$27: cmpq $64, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$26 vmovdqu %xmm13, (%rdi) vmovdqu %xmm12, 16(%rdi) vmovdqu %xmm11, 32(%rdi) vmovdqu %xmm10, 48(%rdi) addq $64, %rdi addq $-64, %rsi vmovdqu %xmm9, %xmm13 vmovdqu %xmm8, %xmm12 vmovdqu %xmm3, %xmm11 vmovdqu %xmm2, %xmm10 Ljade_stream_chacha_chacha20_ietf_amd64_avx$26: cmpq $32, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$25 vmovdqu %xmm13, (%rdi) vmovdqu %xmm12, 16(%rdi) addq $32, %rdi addq $-32, %rsi vmovdqu %xmm11, %xmm13 vmovdqu %xmm10, %xmm12 Ljade_stream_chacha_chacha20_ietf_amd64_avx$25: cmpq $16, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$24 vmovdqu %xmm13, (%rdi) addq $16, %rdi addq $-16, %rsi vmovdqu %xmm12, %xmm13 Ljade_stream_chacha_chacha20_ietf_amd64_avx$24: vpextrq $0, %xmm13, %rax cmpq $8, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$21 movq %rax, (%rdi) addq $8, %rdi addq $-8, %rsi vpextrq $1, %xmm13, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx$23: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$21 Ljade_stream_chacha_chacha20_ietf_amd64_avx$22: movb %al, %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi addq $-1, %rsi Ljade_stream_chacha_chacha20_ietf_amd64_avx$21: cmpq $0, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$22 Ljade_stream_chacha_chacha20_ietf_amd64_avx$20: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx$1: vmovdqu glob_data + 64(%rip), %xmm0 vmovdqu glob_data + 48(%rip), %xmm1 vmovdqu glob_data + 208(%rip), %xmm2 vmovdqu (%rcx), %xmm3 vmovdqu 16(%rcx), %xmm4 vpxor %xmm5, %xmm5, %xmm5 vpinsrd $1, (%rdx), %xmm5, %xmm5 vpinsrq $1, 4(%rdx), %xmm5, %xmm5 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$17 Ljade_stream_chacha_chacha20_ietf_amd64_avx$18: vmovdqu %xmm2, %xmm6 vmovdqu %xmm3, %xmm7 vmovdqu %xmm4, %xmm8 vmovdqu %xmm5, %xmm9 vmovdqu %xmm2, %xmm10 vmovdqu %xmm3, %xmm11 vmovdqu %xmm4, %xmm12 vmovdqu %xmm5, %xmm13 vpaddd glob_data + 32(%rip), %xmm13, %xmm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx$19: vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $57, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $-109, %xmm9, %xmm9 vpshufd $57, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $-109, %xmm13, %xmm13 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $-109, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $57, %xmm9, %xmm9 vpshufd $-109, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $57, %xmm13, %xmm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$19 vpaddd %xmm2, %xmm6, %xmm6 vpaddd %xmm3, %xmm7, %xmm7 vpaddd %xmm4, %xmm8, %xmm8 vpaddd %xmm5, %xmm9, %xmm9 vpaddd %xmm2, %xmm10, %xmm10 vpaddd %xmm3, %xmm11, %xmm11 vpaddd %xmm4, %xmm12, %xmm12 vpaddd %xmm5, %xmm13, %xmm13 vpaddd glob_data + 32(%rip), %xmm13, %xmm13 vmovdqu %xmm6, (%rdi) vmovdqu %xmm7, 16(%rdi) vmovdqu %xmm8, 32(%rdi) vmovdqu %xmm9, 48(%rdi) vmovdqu %xmm10, 64(%rdi) vmovdqu %xmm11, 80(%rdi) vmovdqu %xmm12, 96(%rdi) vmovdqu %xmm13, 112(%rdi) addq $128, %rdi addq $-128, %rsi vpaddd glob_data + 16(%rip), %xmm5, %xmm5 Ljade_stream_chacha_chacha20_ietf_amd64_avx$17: cmpq $128, %rsi jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx$18 cmpq $64, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$3 vmovdqu %xmm2, %xmm6 vmovdqu %xmm3, %xmm7 vmovdqu %xmm4, %xmm8 vmovdqu %xmm5, %xmm9 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx$16: vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm0, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm10 vpsrld $20, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm1, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm10 vpsrld $25, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpshufd $57, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $-109, %xmm9, %xmm9 vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm0, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm10 vpsrld $20, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm1, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm10 vpsrld $25, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpshufd $-109, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $57, %xmm9, %xmm9 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$16 vpaddd %xmm2, %xmm6, %xmm6 vpaddd %xmm3, %xmm7, %xmm2 vpaddd %xmm4, %xmm8, %xmm0 vpaddd %xmm5, %xmm9, %xmm1 cmpq $32, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$15 vmovdqu %xmm6, (%rdi) vmovdqu %xmm2, 16(%rdi) addq $32, %rdi addq $-32, %rsi vmovdqu %xmm0, %xmm6 vmovdqu %xmm1, %xmm2 Ljade_stream_chacha_chacha20_ietf_amd64_avx$15: cmpq $16, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$14 vmovdqu %xmm6, (%rdi) addq $16, %rdi addq $-16, %rsi vmovdqu %xmm2, %xmm6 Ljade_stream_chacha_chacha20_ietf_amd64_avx$14: vpextrq $0, %xmm6, %rax cmpq $8, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$11 movq %rax, (%rdi) addq $8, %rdi addq $-8, %rsi vpextrq $1, %xmm6, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx$13: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$11 Ljade_stream_chacha_chacha20_ietf_amd64_avx$12: movb %al, %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi addq $-1, %rsi Ljade_stream_chacha_chacha20_ietf_amd64_avx$11: cmpq $0, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$12 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx$3: vmovdqu %xmm2, %xmm6 vmovdqu %xmm3, %xmm7 vmovdqu %xmm4, %xmm8 vmovdqu %xmm5, %xmm9 vmovdqu %xmm2, %xmm10 vmovdqu %xmm3, %xmm11 vmovdqu %xmm4, %xmm12 vmovdqu %xmm5, %xmm13 vpaddd glob_data + 32(%rip), %xmm13, %xmm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx$10: vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $57, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $-109, %xmm9, %xmm9 vpshufd $57, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $-109, %xmm13, %xmm13 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $-109, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $57, %xmm9, %xmm9 vpshufd $-109, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $57, %xmm13, %xmm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$10 vpaddd %xmm2, %xmm6, %xmm0 vpaddd %xmm3, %xmm7, %xmm1 vpaddd %xmm4, %xmm8, %xmm6 vpaddd %xmm5, %xmm9, %xmm7 vpaddd %xmm2, %xmm10, %xmm9 vpaddd %xmm3, %xmm11, %xmm8 vpaddd %xmm4, %xmm12, %xmm2 vpaddd %xmm5, %xmm13, %xmm3 vpaddd glob_data + 32(%rip), %xmm3, %xmm3 vmovdqu %xmm0, (%rdi) vmovdqu %xmm1, 16(%rdi) vmovdqu %xmm6, 32(%rdi) vmovdqu %xmm7, 48(%rdi) addq $64, %rdi addq $-64, %rsi cmpq $32, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$9 vmovdqu %xmm9, (%rdi) vmovdqu %xmm8, 16(%rdi) addq $32, %rdi addq $-32, %rsi vmovdqu %xmm2, %xmm9 vmovdqu %xmm3, %xmm8 Ljade_stream_chacha_chacha20_ietf_amd64_avx$9: cmpq $16, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$8 vmovdqu %xmm9, (%rdi) addq $16, %rdi addq $-16, %rsi vmovdqu %xmm8, %xmm9 Ljade_stream_chacha_chacha20_ietf_amd64_avx$8: vpextrq $0, %xmm9, %rax cmpq $8, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$5 movq %rax, (%rdi) addq $8, %rdi addq $-8, %rsi vpextrq $1, %xmm9, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx$7: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$5 Ljade_stream_chacha_chacha20_ietf_amd64_avx$6: movb %al, %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi addq $-1, %rsi Ljade_stream_chacha_chacha20_ietf_amd64_avx$5: cmpq $0, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$6 Ljade_stream_chacha_chacha20_ietf_amd64_avx$4: Ljade_stream_chacha_chacha20_ietf_amd64_avx$2: xorq %rax, %rax movq %r10, %rsp ret _jade_stream_chacha_chacha20_ietf_amd64_avx_xor: jade_stream_chacha_chacha20_ietf_amd64_avx_xor: movq %rsp, %r10 leaq -592(%rsp), %rsp andq $-16, %rsp cmpq $129, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$1 vmovdqu glob_data + 64(%rip), %xmm0 vmovdqu glob_data + 48(%rip), %xmm1 vmovdqu %xmm0, (%rsp) vmovdqu %xmm1, 16(%rsp) vmovdqu glob_data + 112(%rip), %xmm0 vmovdqu glob_data + 128(%rip), %xmm1 vmovdqu glob_data + 144(%rip), %xmm2 vmovdqu glob_data + 160(%rip), %xmm3 vpbroadcastd (%r8), %xmm4 vpbroadcastd 4(%r8), %xmm5 vpbroadcastd 8(%r8), %xmm6 vpbroadcastd 12(%r8), %xmm7 vpbroadcastd 16(%r8), %xmm8 vpbroadcastd 20(%r8), %xmm9 vpbroadcastd 24(%r8), %xmm10 vpbroadcastd 28(%r8), %xmm11 vmovdqu glob_data + 96(%rip), %xmm12 vpbroadcastd (%rcx), %xmm13 vpbroadcastd 4(%rcx), %xmm14 vpbroadcastd 8(%rcx), %xmm15 vmovdqu %xmm0, 336(%rsp) vmovdqu %xmm1, 352(%rsp) vmovdqu %xmm2, 368(%rsp) vmovdqu %xmm3, 384(%rsp) vmovdqu %xmm4, 400(%rsp) vmovdqu %xmm5, 416(%rsp) vmovdqu %xmm6, 432(%rsp) vmovdqu %xmm7, 448(%rsp) vmovdqu %xmm8, 464(%rsp) vmovdqu %xmm9, 480(%rsp) vmovdqu %xmm10, 496(%rsp) vmovdqu %xmm11, 512(%rsp) vmovdqu %xmm12, 528(%rsp) vmovdqu %xmm13, 544(%rsp) vmovdqu %xmm14, 560(%rsp) vmovdqu %xmm15, 576(%rsp) jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$29 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$30: vmovdqu 336(%rsp), %xmm0 vmovdqu 352(%rsp), %xmm1 vmovdqu 368(%rsp), %xmm2 vmovdqu 384(%rsp), %xmm3 vmovdqu 400(%rsp), %xmm4 vmovdqu 416(%rsp), %xmm5 vmovdqu 432(%rsp), %xmm6 vmovdqu 448(%rsp), %xmm7 vmovdqu 464(%rsp), %xmm8 vmovdqu 480(%rsp), %xmm9 vmovdqu 496(%rsp), %xmm10 vmovdqu 512(%rsp), %xmm11 vmovdqu 528(%rsp), %xmm12 vmovdqu 544(%rsp), %xmm13 vmovdqu 560(%rsp), %xmm14 vmovdqu 576(%rsp), %xmm15 vmovdqu %xmm15, 32(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$31: vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vmovdqu %xmm14, 48(%rsp) vmovdqu 32(%rsp), %xmm14 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vmovdqu %xmm14, 64(%rsp) vmovdqu 48(%rsp), %xmm14 vmovdqu %xmm14, 48(%rsp) vmovdqu 64(%rsp), %xmm14 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vmovdqu %xmm14, 32(%rsp) vmovdqu 48(%rsp), %xmm14 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$31 vmovdqu 32(%rsp), %xmm15 vpaddd 336(%rsp), %xmm0, %xmm0 vpaddd 352(%rsp), %xmm1, %xmm1 vpaddd 368(%rsp), %xmm2, %xmm2 vpaddd 384(%rsp), %xmm3, %xmm3 vpaddd 400(%rsp), %xmm4, %xmm4 vpaddd 416(%rsp), %xmm5, %xmm5 vpaddd 432(%rsp), %xmm6, %xmm6 vpaddd 448(%rsp), %xmm7, %xmm7 vpaddd 464(%rsp), %xmm8, %xmm8 vpaddd 480(%rsp), %xmm9, %xmm9 vpaddd 496(%rsp), %xmm10, %xmm10 vpaddd 512(%rsp), %xmm11, %xmm11 vpaddd 528(%rsp), %xmm12, %xmm12 vpaddd 544(%rsp), %xmm13, %xmm13 vpaddd 560(%rsp), %xmm14, %xmm14 vpaddd 576(%rsp), %xmm15, %xmm15 vmovdqu %xmm8, 80(%rsp) vmovdqu %xmm9, 96(%rsp) vmovdqu %xmm10, 112(%rsp) vmovdqu %xmm11, 128(%rsp) vmovdqu %xmm12, 144(%rsp) vmovdqu %xmm13, 160(%rsp) vmovdqu %xmm14, 176(%rsp) vmovdqu %xmm15, 192(%rsp) vpunpckldq %xmm1, %xmm0, %xmm8 vpunpckhdq %xmm1, %xmm0, %xmm0 vpunpckldq %xmm3, %xmm2, %xmm1 vpunpckhdq %xmm3, %xmm2, %xmm2 vpunpckldq %xmm5, %xmm4, %xmm3 vpunpckhdq %xmm5, %xmm4, %xmm4 vpunpckldq %xmm7, %xmm6, %xmm5 vpunpckhdq %xmm7, %xmm6, %xmm6 vpunpcklqdq %xmm1, %xmm8, %xmm7 vpunpcklqdq %xmm5, %xmm3, %xmm9 vpunpckhqdq %xmm1, %xmm8, %xmm1 vpunpckhqdq %xmm5, %xmm3, %xmm3 vpunpcklqdq %xmm2, %xmm0, %xmm5 vpunpcklqdq %xmm6, %xmm4, %xmm8 vpunpckhqdq %xmm2, %xmm0, %xmm0 vpunpckhqdq %xmm6, %xmm4, %xmm2 vpxor (%rsi), %xmm7, %xmm4 vpxor 16(%rsi), %xmm9, %xmm6 vpxor 64(%rsi), %xmm1, %xmm1 vpxor 80(%rsi), %xmm3, %xmm3 vpxor 128(%rsi), %xmm5, %xmm5 vpxor 144(%rsi), %xmm8, %xmm7 vpxor 192(%rsi), %xmm0, %xmm0 vpxor 208(%rsi), %xmm2, %xmm2 vmovdqu %xmm4, (%rdi) vmovdqu %xmm6, 16(%rdi) vmovdqu %xmm1, 64(%rdi) vmovdqu %xmm3, 80(%rdi) vmovdqu %xmm5, 128(%rdi) vmovdqu %xmm7, 144(%rdi) vmovdqu %xmm0, 192(%rdi) vmovdqu %xmm2, 208(%rdi) vmovdqu 80(%rsp), %xmm0 vmovdqu 112(%rsp), %xmm1 vmovdqu 144(%rsp), %xmm2 vmovdqu 176(%rsp), %xmm3 vpunpckldq 96(%rsp), %xmm0, %xmm4 vpunpckhdq 96(%rsp), %xmm0, %xmm0 vpunpckldq 128(%rsp), %xmm1, %xmm5 vpunpckhdq 128(%rsp), %xmm1, %xmm1 vpunpckldq 160(%rsp), %xmm2, %xmm6 vpunpckhdq 160(%rsp), %xmm2, %xmm2 vpunpckldq 192(%rsp), %xmm3, %xmm7 vpunpckhdq 192(%rsp), %xmm3, %xmm3 vpunpcklqdq %xmm5, %xmm4, %xmm8 vpunpcklqdq %xmm7, %xmm6, %xmm9 vpunpckhqdq %xmm5, %xmm4, %xmm4 vpunpckhqdq %xmm7, %xmm6, %xmm5 vpunpcklqdq %xmm1, %xmm0, %xmm6 vpunpcklqdq %xmm3, %xmm2, %xmm7 vpunpckhqdq %xmm1, %xmm0, %xmm0 vpunpckhqdq %xmm3, %xmm2, %xmm1 vpxor 32(%rsi), %xmm8, %xmm2 vpxor 48(%rsi), %xmm9, %xmm3 vpxor 96(%rsi), %xmm4, %xmm4 vpxor 112(%rsi), %xmm5, %xmm5 vpxor 160(%rsi), %xmm6, %xmm6 vpxor 176(%rsi), %xmm7, %xmm7 vpxor 224(%rsi), %xmm0, %xmm0 vpxor 240(%rsi), %xmm1, %xmm1 vmovdqu %xmm2, 32(%rdi) vmovdqu %xmm3, 48(%rdi) vmovdqu %xmm4, 96(%rdi) vmovdqu %xmm5, 112(%rdi) vmovdqu %xmm6, 160(%rdi) vmovdqu %xmm7, 176(%rdi) vmovdqu %xmm0, 224(%rdi) vmovdqu %xmm1, 240(%rdi) addq $256, %rdi addq $256, %rsi addq $-256, %rdx vmovdqu glob_data + 0(%rip), %xmm0 vpaddd 528(%rsp), %xmm0, %xmm0 vmovdqu %xmm0, 528(%rsp) Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$29: cmpq $256, %rdx jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$30 cmpq $0, %rdx jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2 vmovdqu 336(%rsp), %xmm0 vmovdqu 352(%rsp), %xmm1 vmovdqu 368(%rsp), %xmm2 vmovdqu 384(%rsp), %xmm3 vmovdqu 400(%rsp), %xmm4 vmovdqu 416(%rsp), %xmm5 vmovdqu 432(%rsp), %xmm6 vmovdqu 448(%rsp), %xmm7 vmovdqu 464(%rsp), %xmm8 vmovdqu 480(%rsp), %xmm9 vmovdqu 496(%rsp), %xmm10 vmovdqu 512(%rsp), %xmm11 vmovdqu 528(%rsp), %xmm12 vmovdqu 544(%rsp), %xmm13 vmovdqu 560(%rsp), %xmm14 vmovdqu 576(%rsp), %xmm15 vmovdqu %xmm15, 32(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$28: vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vmovdqu %xmm14, 48(%rsp) vmovdqu 32(%rsp), %xmm14 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vmovdqu %xmm14, 64(%rsp) vmovdqu 48(%rsp), %xmm14 vmovdqu %xmm14, 48(%rsp) vmovdqu 64(%rsp), %xmm14 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vmovdqu %xmm14, 32(%rsp) vmovdqu 48(%rsp), %xmm14 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$28 vmovdqu 32(%rsp), %xmm15 vpaddd 336(%rsp), %xmm0, %xmm0 vpaddd 352(%rsp), %xmm1, %xmm1 vpaddd 368(%rsp), %xmm2, %xmm2 vpaddd 384(%rsp), %xmm3, %xmm3 vpaddd 400(%rsp), %xmm4, %xmm4 vpaddd 416(%rsp), %xmm5, %xmm5 vpaddd 432(%rsp), %xmm6, %xmm6 vpaddd 448(%rsp), %xmm7, %xmm7 vpaddd 464(%rsp), %xmm8, %xmm8 vpaddd 480(%rsp), %xmm9, %xmm9 vpaddd 496(%rsp), %xmm10, %xmm10 vpaddd 512(%rsp), %xmm11, %xmm11 vpaddd 528(%rsp), %xmm12, %xmm12 vpaddd 544(%rsp), %xmm13, %xmm13 vpaddd 560(%rsp), %xmm14, %xmm14 vpaddd 576(%rsp), %xmm15, %xmm15 vmovdqu %xmm8, 80(%rsp) vmovdqu %xmm9, 96(%rsp) vmovdqu %xmm10, 112(%rsp) vmovdqu %xmm11, 128(%rsp) vmovdqu %xmm12, 144(%rsp) vmovdqu %xmm13, 160(%rsp) vmovdqu %xmm14, 176(%rsp) vmovdqu %xmm15, 192(%rsp) vpunpckldq %xmm1, %xmm0, %xmm8 vpunpckhdq %xmm1, %xmm0, %xmm0 vpunpckldq %xmm3, %xmm2, %xmm1 vpunpckhdq %xmm3, %xmm2, %xmm2 vpunpckldq %xmm5, %xmm4, %xmm3 vpunpckhdq %xmm5, %xmm4, %xmm4 vpunpckldq %xmm7, %xmm6, %xmm5 vpunpckhdq %xmm7, %xmm6, %xmm6 vpunpcklqdq %xmm1, %xmm8, %xmm7 vpunpcklqdq %xmm5, %xmm3, %xmm9 vpunpckhqdq %xmm1, %xmm8, %xmm1 vpunpckhqdq %xmm5, %xmm3, %xmm3 vpunpcklqdq %xmm2, %xmm0, %xmm5 vpunpcklqdq %xmm6, %xmm4, %xmm8 vpunpckhqdq %xmm2, %xmm0, %xmm0 vpunpckhqdq %xmm6, %xmm4, %xmm2 vmovdqu %xmm7, 208(%rsp) vmovdqu %xmm9, 224(%rsp) vmovdqu %xmm1, 240(%rsp) vmovdqu %xmm3, 256(%rsp) vmovdqu %xmm5, 272(%rsp) vmovdqu %xmm8, 288(%rsp) vmovdqu %xmm0, 304(%rsp) vmovdqu %xmm2, 320(%rsp) vmovdqu 80(%rsp), %xmm0 vmovdqu 112(%rsp), %xmm1 vmovdqu 144(%rsp), %xmm2 vmovdqu 176(%rsp), %xmm3 vpunpckldq 96(%rsp), %xmm0, %xmm4 vpunpckhdq 96(%rsp), %xmm0, %xmm0 vpunpckldq 128(%rsp), %xmm1, %xmm5 vpunpckhdq 128(%rsp), %xmm1, %xmm1 vpunpckldq 160(%rsp), %xmm2, %xmm6 vpunpckhdq 160(%rsp), %xmm2, %xmm2 vpunpckldq 192(%rsp), %xmm3, %xmm7 vpunpckhdq 192(%rsp), %xmm3, %xmm3 vpunpcklqdq %xmm5, %xmm4, %xmm8 vpunpcklqdq %xmm7, %xmm6, %xmm9 vpunpckhqdq %xmm5, %xmm4, %xmm4 vpunpckhqdq %xmm7, %xmm6, %xmm5 vpunpcklqdq %xmm1, %xmm0, %xmm6 vpunpcklqdq %xmm3, %xmm2, %xmm7 vpunpckhqdq %xmm1, %xmm0, %xmm0 vpunpckhqdq %xmm3, %xmm2, %xmm1 vmovdqu 208(%rsp), %xmm2 vmovdqu 224(%rsp), %xmm12 vmovdqu %xmm8, %xmm11 vmovdqu %xmm9, %xmm10 vmovdqu 240(%rsp), %xmm9 vmovdqu 256(%rsp), %xmm8 vmovdqu %xmm5, %xmm3 cmpq $128, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$27 vpxor (%rsi), %xmm2, %xmm2 vmovdqu %xmm2, (%rdi) vpxor 16(%rsi), %xmm12, %xmm2 vmovdqu %xmm2, 16(%rdi) vpxor 32(%rsi), %xmm11, %xmm2 vmovdqu %xmm2, 32(%rdi) vpxor 48(%rsi), %xmm10, %xmm2 vmovdqu %xmm2, 48(%rdi) vpxor 64(%rsi), %xmm9, %xmm2 vmovdqu %xmm2, 64(%rdi) vpxor 80(%rsi), %xmm8, %xmm2 vmovdqu %xmm2, 80(%rdi) vpxor 96(%rsi), %xmm4, %xmm2 vmovdqu %xmm2, 96(%rdi) vpxor 112(%rsi), %xmm3, %xmm2 vmovdqu %xmm2, 112(%rdi) addq $128, %rdi addq $128, %rsi addq $-128, %rdx vmovdqu 272(%rsp), %xmm2 vmovdqu 288(%rsp), %xmm12 vmovdqu %xmm6, %xmm11 vmovdqu %xmm7, %xmm10 vmovdqu 304(%rsp), %xmm9 vmovdqu 320(%rsp), %xmm8 vmovdqu %xmm0, %xmm4 vmovdqu %xmm1, %xmm3 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$27: cmpq $64, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$26 vpxor (%rsi), %xmm2, %xmm0 vmovdqu %xmm0, (%rdi) vpxor 16(%rsi), %xmm12, %xmm0 vmovdqu %xmm0, 16(%rdi) vpxor 32(%rsi), %xmm11, %xmm0 vmovdqu %xmm0, 32(%rdi) vpxor 48(%rsi), %xmm10, %xmm0 vmovdqu %xmm0, 48(%rdi) addq $64, %rdi addq $64, %rsi addq $-64, %rdx vmovdqu %xmm9, %xmm2 vmovdqu %xmm8, %xmm12 vmovdqu %xmm4, %xmm11 vmovdqu %xmm3, %xmm10 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$26: cmpq $32, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$25 vpxor (%rsi), %xmm2, %xmm0 vmovdqu %xmm0, (%rdi) vpxor 16(%rsi), %xmm12, %xmm0 vmovdqu %xmm0, 16(%rdi) addq $32, %rdi addq $32, %rsi addq $-32, %rdx vmovdqu %xmm11, %xmm2 vmovdqu %xmm10, %xmm12 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$25: cmpq $16, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$24 vpxor (%rsi), %xmm2, %xmm0 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $16, %rsi addq $-16, %rdx vmovdqu %xmm12, %xmm2 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$24: vpextrq $0, %xmm2, %rax cmpq $8, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$21 xorq (%rsi), %rax movq %rax, (%rdi) addq $8, %rdi addq $8, %rsi addq $-8, %rdx vpextrq $1, %xmm2, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$23: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$21 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$22: movb %al, %cl xorb (%rsi), %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi incq %rsi addq $-1, %rdx Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$21: cmpq $0, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$22 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$20: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$1: vmovdqu glob_data + 64(%rip), %xmm0 vmovdqu glob_data + 48(%rip), %xmm1 vmovdqu glob_data + 208(%rip), %xmm2 vmovdqu (%r8), %xmm3 vmovdqu 16(%r8), %xmm4 vpxor %xmm5, %xmm5, %xmm5 vpinsrd $1, (%rcx), %xmm5, %xmm5 vpinsrq $1, 4(%rcx), %xmm5, %xmm5 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$17 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$18: vmovdqu %xmm2, %xmm6 vmovdqu %xmm3, %xmm7 vmovdqu %xmm4, %xmm8 vmovdqu %xmm5, %xmm9 vmovdqu %xmm2, %xmm10 vmovdqu %xmm3, %xmm11 vmovdqu %xmm4, %xmm12 vmovdqu %xmm5, %xmm13 vpaddd glob_data + 32(%rip), %xmm13, %xmm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$19: vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $57, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $-109, %xmm9, %xmm9 vpshufd $57, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $-109, %xmm13, %xmm13 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $-109, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $57, %xmm9, %xmm9 vpshufd $-109, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $57, %xmm13, %xmm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$19 vpaddd %xmm2, %xmm6, %xmm6 vpaddd %xmm3, %xmm7, %xmm7 vpaddd %xmm4, %xmm8, %xmm8 vpaddd %xmm5, %xmm9, %xmm9 vpaddd %xmm2, %xmm10, %xmm10 vpaddd %xmm3, %xmm11, %xmm11 vpaddd %xmm4, %xmm12, %xmm12 vpaddd %xmm5, %xmm13, %xmm13 vpaddd glob_data + 32(%rip), %xmm13, %xmm13 vpxor (%rsi), %xmm6, %xmm6 vmovdqu %xmm6, (%rdi) vpxor 16(%rsi), %xmm7, %xmm6 vmovdqu %xmm6, 16(%rdi) vpxor 32(%rsi), %xmm8, %xmm6 vmovdqu %xmm6, 32(%rdi) vpxor 48(%rsi), %xmm9, %xmm6 vmovdqu %xmm6, 48(%rdi) vpxor 64(%rsi), %xmm10, %xmm6 vmovdqu %xmm6, 64(%rdi) vpxor 80(%rsi), %xmm11, %xmm6 vmovdqu %xmm6, 80(%rdi) vpxor 96(%rsi), %xmm12, %xmm6 vmovdqu %xmm6, 96(%rdi) vpxor 112(%rsi), %xmm13, %xmm6 vmovdqu %xmm6, 112(%rdi) addq $128, %rdi addq $128, %rsi addq $-128, %rdx vpaddd glob_data + 16(%rip), %xmm5, %xmm5 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$17: cmpq $128, %rdx jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$18 cmpq $64, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$3 vmovdqu %xmm2, %xmm6 vmovdqu %xmm3, %xmm7 vmovdqu %xmm4, %xmm8 vmovdqu %xmm5, %xmm9 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$16: vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm0, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm10 vpsrld $20, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm1, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm10 vpsrld $25, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpshufd $57, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $-109, %xmm9, %xmm9 vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm0, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm10 vpsrld $20, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm1, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm10 vpsrld $25, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpshufd $-109, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $57, %xmm9, %xmm9 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$16 vpaddd %xmm2, %xmm6, %xmm2 vpaddd %xmm3, %xmm7, %xmm3 vpaddd %xmm4, %xmm8, %xmm0 vpaddd %xmm5, %xmm9, %xmm1 cmpq $32, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$15 vpxor (%rsi), %xmm2, %xmm2 vmovdqu %xmm2, (%rdi) vpxor 16(%rsi), %xmm3, %xmm2 vmovdqu %xmm2, 16(%rdi) addq $32, %rdi addq $32, %rsi addq $-32, %rdx vmovdqu %xmm0, %xmm2 vmovdqu %xmm1, %xmm3 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$15: cmpq $16, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$14 vpxor (%rsi), %xmm2, %xmm0 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $16, %rsi addq $-16, %rdx vmovdqu %xmm3, %xmm2 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$14: vpextrq $0, %xmm2, %rax cmpq $8, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$11 xorq (%rsi), %rax movq %rax, (%rdi) addq $8, %rdi addq $8, %rsi addq $-8, %rdx vpextrq $1, %xmm2, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$13: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$11 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$12: movb %al, %cl xorb (%rsi), %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi incq %rsi addq $-1, %rdx Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$11: cmpq $0, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$12 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$3: vmovdqu %xmm2, %xmm6 vmovdqu %xmm3, %xmm7 vmovdqu %xmm4, %xmm8 vmovdqu %xmm5, %xmm9 vmovdqu %xmm2, %xmm10 vmovdqu %xmm3, %xmm11 vmovdqu %xmm4, %xmm12 vmovdqu %xmm5, %xmm13 vpaddd glob_data + 32(%rip), %xmm13, %xmm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$10: vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $57, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $-109, %xmm9, %xmm9 vpshufd $57, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $-109, %xmm13, %xmm13 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $-109, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $57, %xmm9, %xmm9 vpshufd $-109, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $57, %xmm13, %xmm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$10 vpaddd %xmm2, %xmm6, %xmm0 vpaddd %xmm3, %xmm7, %xmm1 vpaddd %xmm4, %xmm8, %xmm6 vpaddd %xmm5, %xmm9, %xmm7 vpaddd %xmm2, %xmm10, %xmm9 vpaddd %xmm3, %xmm11, %xmm8 vpaddd %xmm4, %xmm12, %xmm2 vpaddd %xmm5, %xmm13, %xmm3 vpaddd glob_data + 32(%rip), %xmm3, %xmm3 vpxor (%rsi), %xmm0, %xmm0 vmovdqu %xmm0, (%rdi) vpxor 16(%rsi), %xmm1, %xmm0 vmovdqu %xmm0, 16(%rdi) vpxor 32(%rsi), %xmm6, %xmm0 vmovdqu %xmm0, 32(%rdi) vpxor 48(%rsi), %xmm7, %xmm0 vmovdqu %xmm0, 48(%rdi) addq $64, %rdi addq $64, %rsi addq $-64, %rdx cmpq $32, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$9 vpxor (%rsi), %xmm9, %xmm0 vmovdqu %xmm0, (%rdi) vpxor 16(%rsi), %xmm8, %xmm0 vmovdqu %xmm0, 16(%rdi) addq $32, %rdi addq $32, %rsi addq $-32, %rdx vmovdqu %xmm2, %xmm9 vmovdqu %xmm3, %xmm8 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$9: cmpq $16, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$8 vpxor (%rsi), %xmm9, %xmm0 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $16, %rsi addq $-16, %rdx vmovdqu %xmm8, %xmm9 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$8: vpextrq $0, %xmm9, %rax cmpq $8, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$5 xorq (%rsi), %rax movq %rax, (%rdi) addq $8, %rdi addq $8, %rsi addq $-8, %rdx vpextrq $1, %xmm9, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$7: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$5 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$6: movb %al, %cl xorb (%rsi), %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi incq %rsi addq $-1, %rdx Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$5: cmpq $0, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$6 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$4: Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2: xorq %rax, %rax movq %r10, %rsp ret .data .p2align 5 _glob_data: glob_data: .byte 4 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 1 .byte 2 .byte 7 .byte 4 .byte 5 .byte 6 .byte 11 .byte 8 .byte 9 .byte 10 .byte 15 .byte 12 .byte 13 .byte 14 .byte 2 .byte 3 .byte 0 .byte 1 .byte 6 .byte 7 .byte 4 .byte 5 .byte 10 .byte 11 .byte 8 .byte 9 .byte 14 .byte 15 .byte 12 .byte 13 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 101 .byte 120 .byte 112 .byte 97 .byte 110 .byte 100 .byte 32 .byte 51 .byte 50 .byte 45 .byte 98 .byte 121 .byte 116 .byte 101 .byte 32 .byte 107
usenix-security-verdict/verdict
128,503
deps/libcrux/sys/libjade/jazz/x25519_mulx.s
.att_syntax .text .p2align 5 .globl _jade_scalarmult_curve25519_amd64_mulx_base .globl jade_scalarmult_curve25519_amd64_mulx_base .globl _jade_scalarmult_curve25519_amd64_mulx .globl jade_scalarmult_curve25519_amd64_mulx _jade_scalarmult_curve25519_amd64_mulx_base: jade_scalarmult_curve25519_amd64_mulx_base: movq %rsp, %rax leaq -408(%rsp), %rsp andq $-8, %rsp movq %rax, 400(%rsp) movq %rbx, 352(%rsp) movq %rbp, 360(%rsp) movq %r12, 368(%rsp) movq %r13, 376(%rsp) movq %r14, 384(%rsp) movq %r15, 392(%rsp) movq %rdi, (%rsp) movq (%rsi), %rax movq %rax, 24(%rsp) movq 8(%rsi), %rax movq %rax, 32(%rsp) movq 16(%rsi), %rax movq %rax, 40(%rsp) movq 24(%rsi), %rax movq %rax, 48(%rsp) andb $-8, 24(%rsp) andb $127, 55(%rsp) orb $64, 55(%rsp) movq $9, %rcx movq $0, %rdx movq $0, %r9 movq $0, %r10 xorq %r11, %r11 movq $1, 56(%rsp) movq $0, %rax movq %rcx, 88(%rsp) movq %rdx, 96(%rsp) movq %r9, 104(%rsp) movq %r10, 112(%rsp) movq $1, 120(%rsp) movq %r11, 64(%rsp) movq %r11, %r8 movq %r11, 128(%rsp) movq %r11, 72(%rsp) movq %r11, %rsi movq %r11, 136(%rsp) movq %r11, 80(%rsp) movq %r11, %rdi movq %r11, 144(%rsp) movq %rcx, 152(%rsp) movq %rdx, 160(%rsp) movq %r9, 168(%rsp) movq %r10, 176(%rsp) movq $255, %rcx movq $0, 8(%rsp) Ljade_scalarmult_curve25519_amd64_mulx_base$9: addq $-1, %rcx movq %rcx, 16(%rsp) movq %rcx, %rdx shrq $3, %rdx movzbq 24(%rsp,%rdx), %rdx andq $7, %rcx shrq %cl, %rdx andq $1, %rdx movq 8(%rsp), %r9 xorq %rdx, %r9 xorq %rcx, %rcx subq %r9, %rcx movq 120(%rsp), %r9 movq 128(%rsp), %r10 movq 136(%rsp), %r11 movq 144(%rsp), %rbx movq %rax, %rbp movq %r8, %r12 movq %rsi, %r13 movq %rdi, %r14 xorq %r9, %rbp xorq %r10, %r12 xorq %r11, %r13 xorq %rbx, %r14 andq %rcx, %rbp andq %rcx, %r12 andq %rcx, %r13 andq %rcx, %r14 xorq %rbp, %rax xorq %rbp, %r9 movq %r9, 120(%rsp) xorq %r12, %r8 xorq %r12, %r10 movq %r10, 128(%rsp) xorq %r13, %rsi xorq %r13, %r11 movq %r11, 136(%rsp) xorq %r14, %rdi xorq %r14, %rbx movq %rbx, 144(%rsp) movq 88(%rsp), %r11 movq 96(%rsp), %rbx movq 104(%rsp), %r9 movq 112(%rsp), %r10 movq 56(%rsp), %rbp movq %r11, %r12 xorq %rbp, %r12 andq %rcx, %r12 xorq %r12, %rbp xorq %r12, %r11 movq %rbp, 56(%rsp) movq %r11, 88(%rsp) movq 64(%rsp), %r11 movq %rbx, %rbp xorq %r11, %rbp andq %rcx, %rbp xorq %rbp, %r11 xorq %rbp, %rbx movq %r11, 64(%rsp) movq %rbx, 96(%rsp) movq 72(%rsp), %r11 movq %r9, %rbx xorq %r11, %rbx andq %rcx, %rbx xorq %rbx, %r11 xorq %rbx, %r9 movq %r11, 72(%rsp) movq %r9, 104(%rsp) movq 80(%rsp), %r9 movq %r10, %r11 xorq %r9, %r11 andq %rcx, %r11 xorq %r11, %r9 xorq %r11, %r10 movq %r9, 80(%rsp) movq %r10, 112(%rsp) movq %rdx, 8(%rsp) xorq %rcx, %rcx movq 56(%rsp), %rdx movq 64(%rsp), %r9 movq 72(%rsp), %r10 movq 80(%rsp), %r11 subq %rax, %rdx sbbq %r8, %r9 sbbq %rsi, %r10 sbbq %rdi, %r11 sbbq %rcx, %rcx andq $38, %rcx subq %rcx, %rdx sbbq $0, %r9 sbbq $0, %r10 sbbq $0, %r11 sbbq %rcx, %rcx andq $38, %rcx subq %rcx, %rdx movq %rdx, 184(%rsp) movq %r9, 192(%rsp) movq %r10, 200(%rsp) movq %r11, 208(%rsp) xorq %rcx, %rcx addq 56(%rsp), %rax adcq 64(%rsp), %r8 adcq 72(%rsp), %rsi adcq 80(%rsp), %rdi sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rax adcq $0, %r8 adcq $0, %rsi adcq $0, %rdi sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rax movq %rax, 216(%rsp) movq %r8, 224(%rsp) movq %rsi, 232(%rsp) movq %rdi, 240(%rsp) movq 88(%rsp), %rax movq 96(%rsp), %rcx movq 104(%rsp), %rdx movq 112(%rsp), %rsi xorq %rdi, %rdi subq 120(%rsp), %rax sbbq 128(%rsp), %rcx sbbq 136(%rsp), %rdx sbbq 144(%rsp), %rsi sbbq %rdi, %rdi andq $38, %rdi subq %rdi, %rax sbbq $0, %rcx sbbq $0, %rdx sbbq $0, %rsi sbbq %rdi, %rdi andq $38, %rdi subq %rdi, %rax movq %rax, 248(%rsp) movq %rcx, 256(%rsp) movq %rdx, 264(%rsp) movq %rsi, 272(%rsp) movq 88(%rsp), %rax movq 96(%rsp), %rcx movq 104(%rsp), %rdx movq 112(%rsp), %rsi xorq %rdi, %rdi addq 120(%rsp), %rax adcq 128(%rsp), %rcx adcq 136(%rsp), %rdx adcq 144(%rsp), %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax adcq $0, %rcx adcq $0, %rdx adcq $0, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax movq %rax, 280(%rsp) movq %rcx, 288(%rsp) movq %rdx, 296(%rsp) movq %rsi, 304(%rsp) movq 248(%rsp), %r9 movq 256(%rsp), %r10 movq 264(%rsp), %r11 movq 272(%rsp), %rbx xorq %rax, %rax movq 216(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r10, %r8, %rdi adcxq %r8, %rcx MULXq %r11, %rbp, %r8 adcxq %rbp, %rdi MULXq %rbx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 224(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r8 MULXq %r11, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 232(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r8 MULXq %r10, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 240(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %r8 adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rax, %r9 adoxq %rax, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r12, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %r13, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r8 MULXq %r9, %r9, %rdx adoxq %r9, %r8 adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rax, %rcx adcq %rax, %rdi adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 248(%rsp) movq %rcx, 256(%rsp) movq %rdi, 264(%rsp) movq %r8, 272(%rsp) movq 184(%rsp), %r9 movq 192(%rsp), %r10 movq 200(%rsp), %r11 movq 208(%rsp), %rbx xorq %rax, %rax movq 280(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r10, %r8, %rdi adcxq %r8, %rcx MULXq %r11, %rbp, %r8 adcxq %rbp, %rdi MULXq %rbx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 288(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r8 MULXq %r11, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 296(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r8 MULXq %r10, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 304(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %r8 adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rax, %r9 adoxq %rax, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r12, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %r13, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r8 MULXq %r9, %r9, %rdx adoxq %r9, %r8 adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rax, %rcx adcq %rax, %rdi adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 280(%rsp) movq %rcx, 288(%rsp) movq %rdi, 296(%rsp) movq %r8, 304(%rsp) movq 216(%rsp), %rdx movq 224(%rsp), %r11 movq 232(%rsp), %r13 movq 240(%rsp), %rbx xorq %rax, %rax MULXq %rdx, %rsi, %rcx MULXq %r11, %r8, %rdi MULXq %r13, %r10, %r9 adcxq %r10, %rdi MULXq %rbx, %rdx, %r10 adcxq %rdx, %r9 movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %rax, %r11 adcxq %rax, %r13 adoxq %rax, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %r8, %r8 adoxq %rcx, %r8 adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %rax, %rbx adoxq %rax, %rbx movq $38, %rdx MULXq %r10, %r10, %rcx adoxq %r10, %rsi adcxq %rcx, %r8 MULXq %r11, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %rdi MULXq %r13, %r10, %rcx adoxq %r10, %rdi adcxq %rcx, %r9 MULXq %rbx, %rdx, %rcx adoxq %rdx, %r9 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rsi adcq %rax, %r8 adcq %rax, %rdi adcq %rax, %r9 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 216(%rsp) movq %r8, 224(%rsp) movq %rdi, 232(%rsp) movq %r9, 240(%rsp) movq 184(%rsp), %rdx movq 192(%rsp), %r11 movq 200(%rsp), %r13 movq 208(%rsp), %rbx xorq %r8, %r8 MULXq %rdx, %rax, %r9 MULXq %r11, %rsi, %rcx MULXq %r13, %r10, %rdi adcxq %r10, %rcx MULXq %rbx, %rdx, %r10 adcxq %rdx, %rdi movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %rdi adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %r8, %r11 adcxq %r8, %r13 adoxq %r8, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %rsi, %rsi adoxq %r9, %rsi adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rdi, %rdi adoxq %rbp, %rdi adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %r8, %rbx adoxq %r8, %rbx movq $38, %rdx MULXq %r10, %r10, %r9 adoxq %r10, %rax adcxq %r9, %rsi MULXq %r11, %r10, %r9 adoxq %r10, %rsi adcxq %r9, %rcx MULXq %r13, %r10, %r9 adoxq %r10, %rcx adcxq %r9, %rdi MULXq %rbx, %r9, %rdx adoxq %r9, %rdi adcxq %r8, %rdx adoxq %r8, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %r8, %rsi adcq %r8, %rcx adcq %r8, %rdi sbbq %r8, %r8 andq $38, %r8 addq %r8, %rax movq 248(%rsp), %rdx movq 256(%rsp), %r8 movq 264(%rsp), %r9 movq 272(%rsp), %r10 xorq %r11, %r11 addq 280(%rsp), %rdx adcq 288(%rsp), %r8 adcq 296(%rsp), %r9 adcq 304(%rsp), %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdx adcq $0, %r8 adcq $0, %r9 adcq $0, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdx movq %rdx, 184(%rsp) movq %r8, 192(%rsp) movq %r9, 200(%rsp) movq %r10, 208(%rsp) movq 248(%rsp), %rdx movq 256(%rsp), %r8 movq 264(%rsp), %r9 movq 272(%rsp), %r10 xorq %r11, %r11 subq 280(%rsp), %rdx sbbq 288(%rsp), %r8 sbbq 296(%rsp), %r9 sbbq 304(%rsp), %r10 sbbq %r11, %r11 andq $38, %r11 subq %r11, %rdx sbbq $0, %r8 sbbq $0, %r9 sbbq $0, %r10 sbbq %r11, %r11 andq $38, %r11 subq %r11, %rdx movq %rdx, 280(%rsp) movq %r8, 288(%rsp) movq %r9, 296(%rsp) movq %r10, 304(%rsp) xorq %rdx, %rdx movq 216(%rsp), %r8 movq 224(%rsp), %r9 movq 232(%rsp), %r10 movq 240(%rsp), %r11 subq %rax, %r8 sbbq %rsi, %r9 sbbq %rcx, %r10 sbbq %rdi, %r11 sbbq %rdx, %rdx andq $38, %rdx subq %rdx, %r8 sbbq $0, %r9 sbbq $0, %r10 sbbq $0, %r11 sbbq %rdx, %rdx andq $38, %rdx subq %rdx, %r8 movq %r8, 248(%rsp) movq %r9, 256(%rsp) movq %r10, 264(%rsp) movq %r11, 272(%rsp) xorq %r8, %r8 movq 216(%rsp), %rdx MULXq %rax, %r10, %r9 MULXq %rsi, %rbx, %r11 adcxq %rbx, %r9 MULXq %rcx, %rbp, %rbx adcxq %rbp, %r11 MULXq %rdi, %rdx, %rbp adcxq %rdx, %rbx adcxq %r8, %rbp movq 224(%rsp), %rdx MULXq %rax, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r11 MULXq %rsi, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbx MULXq %rcx, %r13, %r12 adoxq %r13, %rbx adcxq %r12, %rbp MULXq %rdi, %rdx, %r12 adoxq %rdx, %rbp adcxq %r8, %r12 adoxq %r8, %r12 movq 232(%rsp), %rdx MULXq %rax, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rbx MULXq %rsi, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %rbp MULXq %rcx, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rdi, %rdx, %r13 adoxq %rdx, %r12 adcxq %r8, %r13 adoxq %r8, %r13 movq 240(%rsp), %rdx MULXq %rax, %r14, %rax adoxq %r14, %rbx adcxq %rax, %rbp MULXq %rsi, %rsi, %rax adoxq %rsi, %rbp adcxq %rax, %r12 MULXq %rcx, %rcx, %rax adoxq %rcx, %r12 adcxq %rax, %r13 MULXq %rdi, %rcx, %rax adoxq %rcx, %r13 adcxq %r8, %rax adoxq %r8, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %r10 adcxq %rcx, %r9 MULXq %r12, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r11 MULXq %r13, %rsi, %rcx adoxq %rsi, %r11 adcxq %rcx, %rbx MULXq %rax, %rcx, %rax adoxq %rcx, %rbx adcxq %r8, %rax adoxq %r8, %rax imulq $38, %rax, %rax addq %rax, %r10 adcq %r8, %r9 adcq %r8, %r11 adcq %r8, %rbx sbbq %r8, %r8 andq $38, %r8 addq %r8, %r10 movq %r10, 56(%rsp) movq %r9, 64(%rsp) movq %r11, 72(%rsp) movq %rbx, 80(%rsp) movq 280(%rsp), %rdx movq 288(%rsp), %r11 movq 296(%rsp), %r13 movq 304(%rsp), %rbx xorq %rax, %rax MULXq %rdx, %rsi, %rcx MULXq %r11, %r8, %rdi MULXq %r13, %r10, %r9 adcxq %r10, %rdi MULXq %rbx, %rdx, %r10 adcxq %rdx, %r9 movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %rax, %r11 adcxq %rax, %r13 adoxq %rax, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %r8, %r8 adoxq %rcx, %r8 adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %rax, %rbx adoxq %rax, %rbx movq $38, %rdx MULXq %r10, %r10, %rcx adoxq %r10, %rsi adcxq %rcx, %r8 MULXq %r11, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %rdi MULXq %r13, %r10, %rcx adoxq %r10, %rdi adcxq %rcx, %r9 MULXq %rbx, %rdx, %rcx adoxq %rdx, %r9 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rsi adcq %rax, %r8 adcq %rax, %rdi adcq %rax, %r9 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 280(%rsp) movq %r8, 288(%rsp) movq %rdi, 296(%rsp) movq %r9, 304(%rsp) movq $121665, %rdx MULXq 248(%rsp), %rcx, %rax MULXq 256(%rsp), %rdi, %rsi addq %rdi, %rax MULXq 264(%rsp), %r8, %rdi adcq %r8, %rsi MULXq 272(%rsp), %r9, %r8 adcq %r9, %rdi adcq $0, %r8 imulq $38, %r8, %r8 addq %r8, %rcx adcq $0, %rax adcq $0, %rsi adcq $0, %rdi sbbq %rdx, %rdx andq $38, %rdx addq %rdx, %rcx movq %rcx, 312(%rsp) movq %rax, 320(%rsp) movq %rsi, 328(%rsp) movq %rdi, 336(%rsp) movq 184(%rsp), %rdx movq 192(%rsp), %r11 movq 200(%rsp), %r13 movq 208(%rsp), %rbx xorq %rax, %rax MULXq %rdx, %rsi, %rcx MULXq %r11, %r8, %rdi MULXq %r13, %r10, %r9 adcxq %r10, %rdi MULXq %rbx, %rdx, %r10 adcxq %rdx, %r9 movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %rax, %r11 adcxq %rax, %r13 adoxq %rax, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %r8, %r8 adoxq %rcx, %r8 adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %rax, %rbx adoxq %rax, %rbx movq $38, %rdx MULXq %r10, %r10, %rcx adoxq %r10, %rsi adcxq %rcx, %r8 MULXq %r11, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %rdi MULXq %r13, %r10, %rcx adoxq %r10, %rdi adcxq %rcx, %r9 MULXq %rbx, %rdx, %rcx adoxq %rdx, %r9 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rsi adcq %rax, %r8 adcq %rax, %rdi adcq %rax, %r9 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 88(%rsp) movq %r8, 96(%rsp) movq %rdi, 104(%rsp) movq %r9, 112(%rsp) movq 216(%rsp), %rax movq 224(%rsp), %rcx movq 232(%rsp), %rdx movq 240(%rsp), %rsi xorq %rdi, %rdi addq 312(%rsp), %rax adcq 320(%rsp), %rcx adcq 328(%rsp), %rdx adcq 336(%rsp), %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax adcq $0, %rcx adcq $0, %rdx adcq $0, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax movq %rax, 312(%rsp) movq %rcx, 320(%rsp) movq %rdx, 328(%rsp) movq %rsi, 336(%rsp) movq 280(%rsp), %r9 movq 288(%rsp), %r10 movq 296(%rsp), %r11 movq 304(%rsp), %rbx xorq %rax, %rax movq 152(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r10, %r8, %rdi adcxq %r8, %rcx MULXq %r11, %rbp, %r8 adcxq %rbp, %rdi MULXq %rbx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 160(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r8 MULXq %r11, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 168(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r8 MULXq %r10, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 176(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %r8 adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rax, %r9 adoxq %rax, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r12, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %r13, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r8 MULXq %r9, %r9, %rdx adoxq %r9, %r8 adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rax, %rcx adcq %rax, %rdi adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 120(%rsp) movq %rcx, 128(%rsp) movq %rdi, 136(%rsp) movq %r8, 144(%rsp) movq 312(%rsp), %r9 movq 320(%rsp), %r10 movq 328(%rsp), %r11 movq 336(%rsp), %rbx xorq %rcx, %rcx movq 248(%rsp), %rdx MULXq %r9, %rax, %r8 MULXq %r10, %rdi, %rsi adcxq %rdi, %r8 MULXq %r11, %rbp, %rdi adcxq %rbp, %rsi MULXq %rbx, %rdx, %rbp adcxq %rdx, %rdi adcxq %rcx, %rbp movq 256(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rsi MULXq %r10, %r13, %r12 adoxq %r13, %rsi adcxq %r12, %rdi MULXq %r11, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rcx, %r12 adoxq %rcx, %r12 movq 264(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rsi adcxq %r13, %rdi MULXq %r10, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rcx, %r13 adoxq %rcx, %r13 movq 272(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %rdi adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rcx, %r9 adoxq %rcx, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rax adcxq %r10, %r8 MULXq %r12, %r11, %r10 adoxq %r11, %r8 adcxq %r10, %rsi MULXq %r13, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rdi MULXq %r9, %r9, %rdx adoxq %r9, %rdi adcxq %rcx, %rdx adoxq %rcx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %rcx, %r8 adcq %rcx, %rsi adcq %rcx, %rdi sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rax movq 16(%rsp), %rcx cmpq $0, %rcx jnbe Ljade_scalarmult_curve25519_amd64_mulx_base$9 movq %rax, 120(%rsp) movq %r8, 128(%rsp) movq %rsi, 136(%rsp) movq %rdi, 144(%rsp) xorq %r9, %r9 movq %rax, %rdx MULXq %rdx, %r10, %rbx MULXq %r8, %r11, %rcx MULXq %rsi, %rbp, %rax adcxq %rbp, %rcx MULXq %rdi, %rdx, %rbp adcxq %rdx, %rax movq %r8, %rdx MULXq %rsi, %r12, %r8 adoxq %r12, %rax adcxq %r8, %rbp MULXq %rdi, %r12, %r8 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rsi, %rdx MULXq %rdi, %r14, %rsi adcxq %r14, %r8 adoxq %r9, %r8 adcxq %r9, %rsi adoxq %r9, %rsi MULXq %rdx, %r15, %r14 movq %rdi, %rdx MULXq %rdx, %rdx, %rdi adcxq %r11, %r11 adoxq %rbx, %r11 adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %rax, %rax adoxq %r12, %rax adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r8, %r8 adoxq %r14, %r8 adcxq %rsi, %rsi adoxq %rdx, %rsi adcxq %r9, %rdi adoxq %r9, %rdi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r10 adcxq %rbx, %r11 MULXq %r8, %rbx, %r8 adoxq %rbx, %r11 adcxq %r8, %rcx MULXq %rsi, %r8, %rsi adoxq %r8, %rcx adcxq %rsi, %rax MULXq %rdi, %rsi, %rdx adoxq %rsi, %rax adcxq %r9, %rdx adoxq %r9, %rdx imulq $38, %rdx, %rdx addq %rdx, %r10 adcq %r9, %r11 adcq %r9, %rcx adcq %r9, %rax sbbq %r9, %r9 andq $38, %r9 addq %r9, %r10 movq %r10, 88(%rsp) movq %r11, 96(%rsp) movq %rcx, 104(%rsp) movq %rax, 112(%rsp) xorq %rsi, %rsi movq %r10, %rdx MULXq %rdx, %rdi, %rbx MULXq %r11, %r10, %r9 MULXq %rcx, %rbp, %r8 adcxq %rbp, %r9 MULXq %rax, %rdx, %rbp adcxq %rdx, %r8 movq %r11, %rdx MULXq %rcx, %r12, %r11 adoxq %r12, %r8 adcxq %r11, %rbp MULXq %rax, %r12, %r11 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rcx, %rdx MULXq %rax, %r14, %rcx adcxq %r14, %r11 adoxq %rsi, %r11 adcxq %rsi, %rcx adoxq %rsi, %rcx MULXq %rdx, %r15, %r14 movq %rax, %rdx MULXq %rdx, %rdx, %rax adcxq %r10, %r10 adoxq %rbx, %r10 adcxq %r9, %r9 adoxq %r13, %r9 adcxq %r8, %r8 adoxq %r12, %r8 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r11, %r11 adoxq %r14, %r11 adcxq %rcx, %rcx adoxq %rdx, %rcx adcxq %rsi, %rax adoxq %rsi, %rax movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %r10 MULXq %r11, %rbx, %r11 adoxq %rbx, %r10 adcxq %r11, %r9 MULXq %rcx, %r11, %rcx adoxq %r11, %r9 adcxq %rcx, %r8 MULXq %rax, %rcx, %rax adoxq %rcx, %r8 adcxq %rsi, %rax adoxq %rsi, %rax imulq $38, %rax, %rax addq %rax, %rdi adcq %rsi, %r10 adcq %rsi, %r9 adcq %rsi, %r8 sbbq %rsi, %rsi andq $38, %rsi addq %rsi, %rdi xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rax, %rbx MULXq %r10, %rsi, %rcx MULXq %r9, %rbp, %rdi adcxq %rbp, %rcx MULXq %r8, %rdx, %rbp adcxq %rdx, %rdi movq %r10, %rdx MULXq %r9, %r12, %r10 adoxq %r12, %rdi adcxq %r10, %rbp MULXq %r8, %r12, %r10 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r9, %rdx MULXq %r8, %r14, %r9 adcxq %r14, %r10 adoxq %r11, %r10 adcxq %r11, %r9 adoxq %r11, %r9 MULXq %rdx, %r15, %r14 movq %r8, %rdx MULXq %rdx, %rdx, %r8 adcxq %rsi, %rsi adoxq %rbx, %rsi adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r10, %r10 adoxq %r14, %r10 adcxq %r9, %r9 adoxq %rdx, %r9 adcxq %r11, %r8 adoxq %r11, %r8 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rax adcxq %rbx, %rsi MULXq %r10, %rbx, %r10 adoxq %rbx, %rsi adcxq %r10, %rcx MULXq %r9, %r10, %r9 adoxq %r10, %rcx adcxq %r9, %rdi MULXq %r8, %r8, %rdx adoxq %r8, %rdi adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %r11, %rsi adcq %r11, %rcx adcq %r11, %rdi sbbq %r11, %r11 andq $38, %r11 addq %r11, %rax xorq %r11, %r11 movq 120(%rsp), %rdx MULXq %rax, %rbx, %r8 MULXq %rsi, %r10, %r9 adcxq %r10, %r8 MULXq %rcx, %rbp, %r10 adcxq %rbp, %r9 MULXq %rdi, %rdx, %rbp adcxq %rdx, %r10 adcxq %r11, %rbp movq 128(%rsp), %rdx MULXq %rax, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r9 MULXq %rsi, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r10 MULXq %rcx, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %rbp MULXq %rdi, %rdx, %r12 adoxq %rdx, %rbp adcxq %r11, %r12 adoxq %r11, %r12 movq 136(%rsp), %rdx MULXq %rax, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %r10 MULXq %rsi, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %rbp MULXq %rcx, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rdi, %rdx, %r13 adoxq %rdx, %r12 adcxq %r11, %r13 adoxq %r11, %r13 movq 144(%rsp), %rdx MULXq %rax, %r14, %rax adoxq %r14, %r10 adcxq %rax, %rbp MULXq %rsi, %rsi, %rax adoxq %rsi, %rbp adcxq %rax, %r12 MULXq %rcx, %rcx, %rax adoxq %rcx, %r12 adcxq %rax, %r13 MULXq %rdi, %rcx, %rax adoxq %rcx, %r13 adcxq %r11, %rax adoxq %r11, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %rbx adcxq %rcx, %r8 MULXq %r12, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r9 MULXq %r13, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rbx adcq %r11, %r8 adcq %r11, %r9 adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rbx movq %rbx, 120(%rsp) movq %r8, 128(%rsp) movq %r9, 136(%rsp) movq %r10, 144(%rsp) xorq %rcx, %rcx movq 88(%rsp), %rdx MULXq %rbx, %rsi, %r11 MULXq %r8, %rax, %rbp adcxq %rax, %r11 MULXq %r9, %rdi, %rax adcxq %rdi, %rbp MULXq %r10, %rdx, %rdi adcxq %rdx, %rax adcxq %rcx, %rdi movq 96(%rsp), %rdx MULXq %rbx, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbp MULXq %r8, %r13, %r12 adoxq %r13, %rbp adcxq %r12, %rax MULXq %r9, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rdi MULXq %r10, %rdx, %r12 adoxq %rdx, %rdi adcxq %rcx, %r12 adoxq %rcx, %r12 movq 104(%rsp), %rdx MULXq %rbx, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %rax MULXq %r8, %r14, %r13 adoxq %r14, %rax adcxq %r13, %rdi MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r12 MULXq %r10, %rdx, %r13 adoxq %rdx, %r12 adcxq %rcx, %r13 adoxq %rcx, %r13 movq 112(%rsp), %rdx MULXq %rbx, %r14, %rbx adoxq %r14, %rax adcxq %rbx, %rdi MULXq %r8, %rbx, %r8 adoxq %rbx, %rdi adcxq %r8, %r12 MULXq %r9, %r9, %r8 adoxq %r9, %r12 adcxq %r8, %r13 MULXq %r10, %rdx, %r8 adoxq %rdx, %r13 adcxq %rcx, %r8 adoxq %rcx, %r8 movq $38, %rdx MULXq %rdi, %r9, %rdi adoxq %r9, %rsi adcxq %rdi, %r11 MULXq %r12, %r9, %rdi adoxq %r9, %r11 adcxq %rdi, %rbp MULXq %r13, %r9, %rdi adoxq %r9, %rbp adcxq %rdi, %rax MULXq %r8, %rdi, %rdx adoxq %rdi, %rax adcxq %rcx, %rdx adoxq %rcx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rcx, %r11 adcq %rcx, %rbp adcq %rcx, %rax sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rsi movq %rsi, 88(%rsp) movq %r11, 96(%rsp) movq %rbp, 104(%rsp) movq %rax, 112(%rsp) xorq %r8, %r8 movq %rsi, %rdx MULXq %rdx, %rcx, %r10 MULXq %r11, %rdi, %rsi MULXq %rbp, %rbx, %r9 adcxq %rbx, %rsi MULXq %rax, %rdx, %rbx adcxq %rdx, %r9 movq %r11, %rdx MULXq %rbp, %r12, %r11 adoxq %r12, %r9 adcxq %r11, %rbx MULXq %rax, %r12, %r11 adoxq %r12, %rbx MULXq %rdx, %r13, %r12 movq %rbp, %rdx MULXq %rax, %r14, %rbp adcxq %r14, %r11 adoxq %r8, %r11 adcxq %r8, %rbp adoxq %r8, %rbp MULXq %rdx, %r15, %r14 movq %rax, %rdx MULXq %rdx, %rdx, %rax adcxq %rdi, %rdi adoxq %r10, %rdi adcxq %rsi, %rsi adoxq %r13, %rsi adcxq %r9, %r9 adoxq %r12, %r9 adcxq %rbx, %rbx adoxq %r15, %rbx adcxq %r11, %r11 adoxq %r14, %r11 adcxq %rbp, %rbp adoxq %rdx, %rbp adcxq %r8, %rax adoxq %r8, %rax movq $38, %rdx MULXq %rbx, %rbx, %r10 adoxq %rbx, %rcx adcxq %r10, %rdi MULXq %r11, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %rsi MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %r9 MULXq %rax, %rdx, %rax adoxq %rdx, %r9 adcxq %r8, %rax adoxq %r8, %rax imulq $38, %rax, %rax addq %rax, %rcx adcq %r8, %rdi adcq %r8, %rsi adcq %r8, %r9 sbbq %r8, %r8 andq $38, %r8 addq %r8, %rcx xorq %rax, %rax movq 120(%rsp), %rdx MULXq %rcx, %rbx, %r10 MULXq %rdi, %r8, %r11 adcxq %r8, %r10 MULXq %rsi, %rbp, %r8 adcxq %rbp, %r11 MULXq %r9, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 128(%rsp), %rdx MULXq %rcx, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %r11 MULXq %rdi, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %r8 MULXq %rsi, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %r9, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 136(%rsp), %rdx MULXq %rcx, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %r8 MULXq %rdi, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %rsi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r9, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 144(%rsp), %rdx MULXq %rcx, %r14, %rcx adoxq %r14, %r8 adcxq %rcx, %rbp MULXq %rdi, %rdi, %rcx adoxq %rdi, %rbp adcxq %rcx, %r12 MULXq %rsi, %rsi, %rcx adoxq %rsi, %r12 adcxq %rcx, %r13 MULXq %r9, %rdx, %rcx adoxq %rdx, %r13 adcxq %rax, %rcx adoxq %rax, %rcx movq $38, %rdx MULXq %rbp, %rdi, %rsi adoxq %rdi, %rbx adcxq %rsi, %r10 MULXq %r12, %rdi, %rsi adoxq %rdi, %r10 adcxq %rsi, %r11 MULXq %r13, %rdi, %rsi adoxq %rdi, %r11 adcxq %rsi, %r8 MULXq %rcx, %rdx, %rcx adoxq %rdx, %r8 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rbx adcq %rax, %r10 adcq %rax, %r11 adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rbx movq %rbx, 120(%rsp) movq %r10, 128(%rsp) movq %r11, 136(%rsp) movq %r8, 144(%rsp) xorq %r9, %r9 movq %rbx, %rdx MULXq %rdx, %rdi, %rbx MULXq %r10, %rsi, %rax MULXq %r11, %rbp, %rcx adcxq %rbp, %rax MULXq %r8, %rdx, %rbp adcxq %rdx, %rcx movq %r10, %rdx MULXq %r11, %r12, %r10 adoxq %r12, %rcx adcxq %r10, %rbp MULXq %r8, %r12, %r10 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r11, %rdx MULXq %r8, %r14, %r11 adcxq %r14, %r10 adoxq %r9, %r10 adcxq %r9, %r11 adoxq %r9, %r11 MULXq %rdx, %r15, %r14 movq %r8, %rdx MULXq %rdx, %rdx, %r8 adcxq %rsi, %rsi adoxq %rbx, %rsi adcxq %rax, %rax adoxq %r13, %rax adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r10, %r10 adoxq %r14, %r10 adcxq %r11, %r11 adoxq %rdx, %r11 adcxq %r9, %r8 adoxq %r9, %r8 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %rsi MULXq %r10, %rbx, %r10 adoxq %rbx, %rsi adcxq %r10, %rax MULXq %r11, %r11, %r10 adoxq %r11, %rax adcxq %r10, %rcx MULXq %r8, %r8, %rdx adoxq %r8, %rcx adcxq %r9, %rdx adoxq %r9, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %r9, %rsi adcq %r9, %rax adcq %r9, %rcx sbbq %r9, %r9 andq $38, %r9 addq %r9, %rdi movl $2, %edx Ljade_scalarmult_curve25519_amd64_mulx_base$8: movl %edx, 344(%rsp) xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %rsi, %r9, %r8 MULXq %rax, %rbp, %r10 adcxq %rbp, %r8 MULXq %rcx, %rdx, %rbp adcxq %rdx, %r10 movq %rsi, %rdx MULXq %rax, %r12, %rsi adoxq %r12, %r10 adcxq %rsi, %rbp MULXq %rcx, %r12, %rsi adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rcx, %r14, %rax adcxq %r14, %rsi adoxq %r11, %rsi adcxq %r11, %rax adoxq %r11, %rax MULXq %rdx, %r15, %r14 movq %rcx, %rdx MULXq %rdx, %rdx, %rcx adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %r8, %r8 adoxq %r13, %r8 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rsi, %rsi adoxq %r14, %rsi adcxq %rax, %rax adoxq %rdx, %rax adcxq %r11, %rcx adoxq %r11, %rcx movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %r9 MULXq %rsi, %rbx, %rsi adoxq %rbx, %r9 adcxq %rsi, %r8 MULXq %rax, %rsi, %rax adoxq %rsi, %r8 adcxq %rax, %r10 MULXq %rcx, %rcx, %rax adoxq %rcx, %r10 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rdi adcq %r11, %r9 adcq %r11, %r8 adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %r9, %rsi, %rax MULXq %r8, %rbp, %rcx adcxq %rbp, %rax MULXq %r10, %rdx, %rbp adcxq %rdx, %rcx movq %r9, %rdx MULXq %r8, %r12, %r9 adoxq %r12, %rcx adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r10, %r14, %r8 adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %r8 adoxq %r11, %r8 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rsi, %rsi adoxq %rbx, %rsi adcxq %rax, %rax adoxq %r13, %rax adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %rsi MULXq %r9, %rbx, %r9 adoxq %rbx, %rsi adcxq %r9, %rax MULXq %r8, %r9, %r8 adoxq %r9, %rax adcxq %r8, %rcx MULXq %r10, %r8, %rdx adoxq %r8, %rcx adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %r11, %rsi adcq %r11, %rax adcq %r11, %rcx sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi movl 344(%rsp), %edx decl %edx jne Ljade_scalarmult_curve25519_amd64_mulx_base$8 xorq %r10, %r10 movq 120(%rsp), %rdx MULXq %rdi, %r12, %r8 MULXq %rsi, %r9, %r11 adcxq %r9, %r8 MULXq %rax, %rbx, %r9 adcxq %rbx, %r11 MULXq %rcx, %rdx, %rbx adcxq %rdx, %r9 adcxq %r10, %rbx movq 128(%rsp), %rdx MULXq %rdi, %r13, %rbp adoxq %r13, %r8 adcxq %rbp, %r11 MULXq %rsi, %r13, %rbp adoxq %r13, %r11 adcxq %rbp, %r9 MULXq %rax, %r13, %rbp adoxq %r13, %r9 adcxq %rbp, %rbx MULXq %rcx, %rdx, %rbp adoxq %rdx, %rbx adcxq %r10, %rbp adoxq %r10, %rbp movq 136(%rsp), %rdx MULXq %rdi, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %r9 MULXq %rsi, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %rbx MULXq %rax, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %rbp MULXq %rcx, %rdx, %r13 adoxq %rdx, %rbp adcxq %r10, %r13 adoxq %r10, %r13 movq 144(%rsp), %rdx MULXq %rdi, %r14, %rdi adoxq %r14, %r9 adcxq %rdi, %rbx MULXq %rsi, %rdi, %rsi adoxq %rdi, %rbx adcxq %rsi, %rbp MULXq %rax, %rsi, %rax adoxq %rsi, %rbp adcxq %rax, %r13 MULXq %rcx, %rcx, %rax adoxq %rcx, %r13 adcxq %r10, %rax adoxq %r10, %rax movq $38, %rdx MULXq %rbx, %rsi, %rcx adoxq %rsi, %r12 adcxq %rcx, %r8 MULXq %rbp, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r11 MULXq %r13, %rsi, %rcx adoxq %rsi, %r11 adcxq %rcx, %r9 MULXq %rax, %rcx, %rax adoxq %rcx, %r9 adcxq %r10, %rax adoxq %r10, %rax imulq $38, %rax, %rax addq %rax, %r12 adcq %r10, %r8 adcq %r10, %r11 adcq %r10, %r9 sbbq %r10, %r10 andq $38, %r10 addq %r10, %r12 movq %r12, 120(%rsp) movq %r8, 128(%rsp) movq %r11, 136(%rsp) movq %r9, 144(%rsp) movl $5, %eax Ljade_scalarmult_curve25519_amd64_mulx_base$7: movl %eax, 344(%rsp) xorq %rdi, %rdi movq %r12, %rdx MULXq %rdx, %r10, %rbx MULXq %r8, %rcx, %rax MULXq %r11, %rbp, %rsi adcxq %rbp, %rax MULXq %r9, %rdx, %rbp adcxq %rdx, %rsi movq %r8, %rdx MULXq %r11, %r12, %r8 adoxq %r12, %rsi adcxq %r8, %rbp MULXq %r9, %r12, %r8 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r11, %rdx MULXq %r9, %r14, %r11 adcxq %r14, %r8 adoxq %rdi, %r8 adcxq %rdi, %r11 adoxq %rdi, %r11 MULXq %rdx, %r15, %r14 movq %r9, %rdx MULXq %rdx, %rdx, %r9 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rax, %rax adoxq %r13, %rax adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r8, %r8 adoxq %r14, %r8 adcxq %r11, %r11 adoxq %rdx, %r11 adcxq %rdi, %r9 adoxq %rdi, %r9 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r10 adcxq %rbx, %rcx MULXq %r8, %rbx, %r8 adoxq %rbx, %rcx adcxq %r8, %rax MULXq %r11, %r11, %r8 adoxq %r11, %rax adcxq %r8, %rsi MULXq %r9, %r8, %rdx adoxq %r8, %rsi adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %r10 adcq %rdi, %rcx adcq %rdi, %rax adcq %rdi, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r10 xorq %rdi, %rdi movq %r10, %rdx MULXq %rdx, %r12, %r10 MULXq %rcx, %r8, %r11 MULXq %rax, %rbx, %r9 adcxq %rbx, %r11 MULXq %rsi, %rdx, %rbx adcxq %rdx, %r9 movq %rcx, %rdx MULXq %rax, %rbp, %rcx adoxq %rbp, %r9 adcxq %rcx, %rbx MULXq %rsi, %rbp, %rcx adoxq %rbp, %rbx MULXq %rdx, %r13, %rbp movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %rcx adoxq %rdi, %rcx adcxq %rdi, %rax adoxq %rdi, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r8, %r8 adoxq %r10, %r8 adcxq %r11, %r11 adoxq %r13, %r11 adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %rbx, %rbx adoxq %r15, %rbx adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rax, %rax adoxq %rdx, %rax adcxq %rdi, %rsi adoxq %rdi, %rsi movq $38, %rdx MULXq %rbx, %rbx, %r10 adoxq %rbx, %r12 adcxq %r10, %r8 MULXq %rcx, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %r11 MULXq %rax, %rcx, %rax adoxq %rcx, %r11 adcxq %rax, %r9 MULXq %rsi, %rcx, %rax adoxq %rcx, %r9 adcxq %rdi, %rax adoxq %rdi, %rax imulq $38, %rax, %rax addq %rax, %r12 adcq %rdi, %r8 adcq %rdi, %r11 adcq %rdi, %r9 sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r12 movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx_base$7 xorq %rax, %rax movq 120(%rsp), %rdx MULXq %r12, %rbp, %rbx MULXq %r8, %rcx, %r10 adcxq %rcx, %rbx MULXq %r11, %rsi, %rcx adcxq %rsi, %r10 MULXq %r9, %rdx, %rsi adcxq %rdx, %rcx adcxq %rax, %rsi movq 128(%rsp), %rdx MULXq %r12, %r13, %rdi adoxq %r13, %rbx adcxq %rdi, %r10 MULXq %r8, %r13, %rdi adoxq %r13, %r10 adcxq %rdi, %rcx MULXq %r11, %r13, %rdi adoxq %r13, %rcx adcxq %rdi, %rsi MULXq %r9, %rdx, %rdi adoxq %rdx, %rsi adcxq %rax, %rdi adoxq %rax, %rdi movq 136(%rsp), %rdx MULXq %r12, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %rcx MULXq %r8, %r14, %r13 adoxq %r14, %rcx adcxq %r13, %rsi MULXq %r11, %r14, %r13 adoxq %r14, %rsi adcxq %r13, %rdi MULXq %r9, %rdx, %r13 adoxq %rdx, %rdi adcxq %rax, %r13 adoxq %rax, %r13 movq 144(%rsp), %rdx MULXq %r12, %r14, %r12 adoxq %r14, %rcx adcxq %r12, %rsi MULXq %r8, %r12, %r8 adoxq %r12, %rsi adcxq %r8, %rdi MULXq %r11, %r11, %r8 adoxq %r11, %rdi adcxq %r8, %r13 MULXq %r9, %rdx, %r8 adoxq %rdx, %r13 adcxq %rax, %r8 adoxq %rax, %r8 movq $38, %rdx MULXq %rsi, %r9, %rsi adoxq %r9, %rbp adcxq %rsi, %rbx MULXq %rdi, %rdi, %rsi adoxq %rdi, %rbx adcxq %rsi, %r10 MULXq %r13, %rdi, %rsi adoxq %rdi, %r10 adcxq %rsi, %rcx MULXq %r8, %rsi, %rdx adoxq %rsi, %rcx adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rbp adcq %rax, %rbx adcq %rax, %r10 adcq %rax, %rcx sbbq %rax, %rax andq $38, %rax addq %rax, %rbp movq %rbp, 152(%rsp) movq %rbx, 160(%rsp) movq %r10, 168(%rsp) movq %rcx, 176(%rsp) movl $10, %eax Ljade_scalarmult_curve25519_amd64_mulx_base$6: movl %eax, 344(%rsp) xorq %r8, %r8 movq %rbp, %rdx MULXq %rdx, %r9, %r11 MULXq %rbx, %rsi, %rax MULXq %r10, %rbp, %rdi adcxq %rbp, %rax MULXq %rcx, %rdx, %rbp adcxq %rdx, %rdi movq %rbx, %rdx MULXq %r10, %r12, %rbx adoxq %r12, %rdi adcxq %rbx, %rbp MULXq %rcx, %r12, %rbx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r10, %rdx MULXq %rcx, %r14, %r10 adcxq %r14, %rbx adoxq %r8, %rbx adcxq %r8, %r10 adoxq %r8, %r10 MULXq %rdx, %r15, %r14 movq %rcx, %rdx MULXq %rdx, %rdx, %rcx adcxq %rsi, %rsi adoxq %r11, %rsi adcxq %rax, %rax adoxq %r13, %rax adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rbx, %rbx adoxq %r14, %rbx adcxq %r10, %r10 adoxq %rdx, %r10 adcxq %r8, %rcx adoxq %r8, %rcx movq $38, %rdx MULXq %rbp, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %rsi MULXq %rbx, %rbx, %r11 adoxq %rbx, %rsi adcxq %r11, %rax MULXq %r10, %r11, %r10 adoxq %r11, %rax adcxq %r10, %rdi MULXq %rcx, %rdx, %rcx adoxq %rdx, %rdi adcxq %r8, %rcx adoxq %r8, %rcx imulq $38, %rcx, %rcx addq %rcx, %r9 adcq %r8, %rsi adcq %r8, %rax adcq %r8, %rdi sbbq %r8, %r8 andq $38, %r8 addq %r8, %r9 xorq %r8, %r8 movq %r9, %rdx MULXq %rdx, %rbp, %r9 MULXq %rsi, %rbx, %r10 MULXq %rax, %r11, %rcx adcxq %r11, %r10 MULXq %rdi, %rdx, %r11 adcxq %rdx, %rcx movq %rsi, %rdx MULXq %rax, %r12, %rsi adoxq %r12, %rcx adcxq %rsi, %r11 MULXq %rdi, %r12, %rsi adoxq %r12, %r11 MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rdi, %r14, %rax adcxq %r14, %rsi adoxq %r8, %rsi adcxq %r8, %rax adoxq %r8, %rax MULXq %rdx, %r15, %r14 movq %rdi, %rdx MULXq %rdx, %rdx, %rdi adcxq %rbx, %rbx adoxq %r9, %rbx adcxq %r10, %r10 adoxq %r13, %r10 adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %r11, %r11 adoxq %r15, %r11 adcxq %rsi, %rsi adoxq %r14, %rsi adcxq %rax, %rax adoxq %rdx, %rax adcxq %r8, %rdi adoxq %r8, %rdi movq $38, %rdx MULXq %r11, %r11, %r9 adoxq %r11, %rbp adcxq %r9, %rbx MULXq %rsi, %r9, %rsi adoxq %r9, %rbx adcxq %rsi, %r10 MULXq %rax, %rsi, %rax adoxq %rsi, %r10 adcxq %rax, %rcx MULXq %rdi, %rdx, %rax adoxq %rdx, %rcx adcxq %r8, %rax adoxq %r8, %rax imulq $38, %rax, %rax addq %rax, %rbp adcq %r8, %rbx adcq %r8, %r10 adcq %r8, %rcx sbbq %r8, %r8 andq $38, %r8 addq %r8, %rbp movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx_base$6 xorq %r9, %r9 movq 152(%rsp), %rdx MULXq %rbp, %rdi, %rax MULXq %rbx, %r8, %rsi adcxq %r8, %rax MULXq %r10, %r11, %r8 adcxq %r11, %rsi MULXq %rcx, %rdx, %r11 adcxq %rdx, %r8 adcxq %r9, %r11 movq 160(%rsp), %rdx MULXq %rbp, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rsi MULXq %rbx, %r13, %r12 adoxq %r13, %rsi adcxq %r12, %r8 MULXq %r10, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r11 MULXq %rcx, %rdx, %r12 adoxq %rdx, %r11 adcxq %r9, %r12 adoxq %r9, %r12 movq 168(%rsp), %rdx MULXq %rbp, %r14, %r13 adoxq %r14, %rsi adcxq %r13, %r8 MULXq %rbx, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %r11 MULXq %r10, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %r12 MULXq %rcx, %rdx, %r13 adoxq %rdx, %r12 adcxq %r9, %r13 adoxq %r9, %r13 movq 176(%rsp), %rdx MULXq %rbp, %r14, %rbp adoxq %r14, %r8 adcxq %rbp, %r11 MULXq %rbx, %rbp, %rbx adoxq %rbp, %r11 adcxq %rbx, %r12 MULXq %r10, %rbx, %r10 adoxq %rbx, %r12 adcxq %r10, %r13 MULXq %rcx, %rdx, %rcx adoxq %rdx, %r13 adcxq %r9, %rcx adoxq %r9, %rcx movq $38, %rdx MULXq %r11, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %rax MULXq %r12, %r11, %r10 adoxq %r11, %rax adcxq %r10, %rsi MULXq %r13, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %r8 MULXq %rcx, %rdx, %rcx adoxq %rdx, %r8 adcxq %r9, %rcx adoxq %r9, %rcx imulq $38, %rcx, %rcx addq %rcx, %rdi adcq %r9, %rax adcq %r9, %rsi adcq %r9, %r8 sbbq %r9, %r9 andq $38, %r9 addq %r9, %rdi movl $5, %ecx Ljade_scalarmult_curve25519_amd64_mulx_base$5: movl %ecx, 344(%rsp) xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %rax, %r9, %rcx MULXq %rsi, %rbp, %r10 adcxq %rbp, %rcx MULXq %r8, %rdx, %rbp adcxq %rdx, %r10 movq %rax, %rdx MULXq %rsi, %r12, %rax adoxq %r12, %r10 adcxq %rax, %rbp MULXq %r8, %r12, %rax adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rsi, %rdx MULXq %r8, %r14, %rsi adcxq %r14, %rax adoxq %r11, %rax adcxq %r11, %rsi adoxq %r11, %rsi MULXq %rdx, %r15, %r14 movq %r8, %rdx MULXq %rdx, %rdx, %r8 adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rax, %rax adoxq %r14, %rax adcxq %rsi, %rsi adoxq %rdx, %rsi adcxq %r11, %r8 adoxq %r11, %r8 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %r9 MULXq %rax, %rbx, %rax adoxq %rbx, %r9 adcxq %rax, %rcx MULXq %rsi, %rsi, %rax adoxq %rsi, %rcx adcxq %rax, %r10 MULXq %r8, %rdx, %rax adoxq %rdx, %r10 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rdi adcq %r11, %r9 adcq %r11, %rcx adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %r9, %rax, %rsi MULXq %rcx, %rbp, %r8 adcxq %rbp, %rsi MULXq %r10, %rdx, %rbp adcxq %rdx, %r8 movq %r9, %rdx MULXq %rcx, %r12, %r9 adoxq %r12, %r8 adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rcx, %rdx MULXq %r10, %r14, %rcx adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %rcx adoxq %r11, %rcx MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rax, %rax adoxq %rbx, %rax adcxq %rsi, %rsi adoxq %r13, %rsi adcxq %r8, %r8 adoxq %r12, %r8 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %rcx, %rcx adoxq %rdx, %rcx adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %rax MULXq %r9, %rbx, %r9 adoxq %rbx, %rax adcxq %r9, %rsi MULXq %rcx, %r9, %rcx adoxq %r9, %rsi adcxq %rcx, %r8 MULXq %r10, %rdx, %rcx adoxq %rdx, %r8 adcxq %r11, %rcx adoxq %r11, %rcx imulq $38, %rcx, %rcx addq %rcx, %rdi adcq %r11, %rax adcq %r11, %rsi adcq %r11, %r8 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi movl 344(%rsp), %ecx decl %ecx jne Ljade_scalarmult_curve25519_amd64_mulx_base$5 xorq %rcx, %rcx movq 120(%rsp), %rdx MULXq %rdi, %rbx, %r9 MULXq %rax, %r11, %r10 adcxq %r11, %r9 MULXq %rsi, %rbp, %r11 adcxq %rbp, %r10 MULXq %r8, %rdx, %rbp adcxq %rdx, %r11 adcxq %rcx, %rbp movq 128(%rsp), %rdx MULXq %rdi, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r10 MULXq %rax, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %r11 MULXq %rsi, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbp MULXq %r8, %rdx, %r12 adoxq %rdx, %rbp adcxq %rcx, %r12 adoxq %rcx, %r12 movq 136(%rsp), %rdx MULXq %rdi, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %r11 MULXq %rax, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rbp MULXq %rsi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r8, %rdx, %r13 adoxq %rdx, %r12 adcxq %rcx, %r13 adoxq %rcx, %r13 movq 144(%rsp), %rdx MULXq %rdi, %r14, %rdi adoxq %r14, %r11 adcxq %rdi, %rbp MULXq %rax, %rdi, %rax adoxq %rdi, %rbp adcxq %rax, %r12 MULXq %rsi, %rsi, %rax adoxq %rsi, %r12 adcxq %rax, %r13 MULXq %r8, %rdx, %rax adoxq %rdx, %r13 adcxq %rcx, %rax adoxq %rcx, %rax movq $38, %rdx MULXq %rbp, %rdi, %rsi adoxq %rdi, %rbx adcxq %rsi, %r9 MULXq %r12, %rdi, %rsi adoxq %rdi, %r9 adcxq %rsi, %r10 MULXq %r13, %rdi, %rsi adoxq %rdi, %r10 adcxq %rsi, %r11 MULXq %rax, %rdx, %rax adoxq %rdx, %r11 adcxq %rcx, %rax adoxq %rcx, %rax imulq $38, %rax, %rax addq %rax, %rbx adcq %rcx, %r9 adcq %rcx, %r10 adcq %rcx, %r11 sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rbx movq %rbx, 120(%rsp) movq %r9, 128(%rsp) movq %r10, 136(%rsp) movq %r11, 144(%rsp) movl $25, %eax Ljade_scalarmult_curve25519_amd64_mulx_base$4: movl %eax, 344(%rsp) xorq %rdi, %rdi movq %rbx, %rdx MULXq %rdx, %r8, %rbx MULXq %r9, %rcx, %rax MULXq %r10, %rbp, %rsi adcxq %rbp, %rax MULXq %r11, %rdx, %rbp adcxq %rdx, %rsi movq %r9, %rdx MULXq %r10, %r12, %r9 adoxq %r12, %rsi adcxq %r9, %rbp MULXq %r11, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r10, %rdx MULXq %r11, %r14, %r10 adcxq %r14, %r9 adoxq %rdi, %r9 adcxq %rdi, %r10 adoxq %rdi, %r10 MULXq %rdx, %r15, %r14 movq %r11, %rdx MULXq %rdx, %rdx, %r11 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rax, %rax adoxq %r13, %rax adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r10, %r10 adoxq %rdx, %r10 adcxq %rdi, %r11 adoxq %rdi, %r11 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r8 adcxq %rbx, %rcx MULXq %r9, %rbx, %r9 adoxq %rbx, %rcx adcxq %r9, %rax MULXq %r10, %r10, %r9 adoxq %r10, %rax adcxq %r9, %rsi MULXq %r11, %r9, %rdx adoxq %r9, %rsi adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %r8 adcq %rdi, %rcx adcq %rdi, %rax adcq %rdi, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r8 xorq %rdi, %rdi movq %r8, %rdx MULXq %rdx, %rbx, %r8 MULXq %rcx, %r9, %r10 MULXq %rax, %rbp, %r11 adcxq %rbp, %r10 MULXq %rsi, %rdx, %rbp adcxq %rdx, %r11 movq %rcx, %rdx MULXq %rax, %r12, %rcx adoxq %r12, %r11 adcxq %rcx, %rbp MULXq %rsi, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %rcx adoxq %rdi, %rcx adcxq %rdi, %rax adoxq %rdi, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r9, %r9 adoxq %r8, %r9 adcxq %r10, %r10 adoxq %r13, %r10 adcxq %r11, %r11 adoxq %r12, %r11 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rax, %rax adoxq %rdx, %rax adcxq %rdi, %rsi adoxq %rdi, %rsi movq $38, %rdx MULXq %rbp, %rbp, %r8 adoxq %rbp, %rbx adcxq %r8, %r9 MULXq %rcx, %r8, %rcx adoxq %r8, %r9 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %rax, %r11 MULXq %rsi, %rcx, %rax adoxq %rcx, %r11 adcxq %rdi, %rax adoxq %rdi, %rax imulq $38, %rax, %rax addq %rax, %rbx adcq %rdi, %r9 adcq %rdi, %r10 adcq %rdi, %r11 sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rbx movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx_base$4 xorq %r8, %r8 movq 120(%rsp), %rdx MULXq %rbx, %rdi, %rsi MULXq %r9, %rax, %rcx adcxq %rax, %rsi MULXq %r10, %rbp, %rax adcxq %rbp, %rcx MULXq %r11, %rdx, %rbp adcxq %rdx, %rax adcxq %r8, %rbp movq 128(%rsp), %rdx MULXq %rbx, %r13, %r12 adoxq %r13, %rsi adcxq %r12, %rcx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rax MULXq %r10, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rbp MULXq %r11, %rdx, %r12 adoxq %rdx, %rbp adcxq %r8, %r12 adoxq %r8, %r12 movq 136(%rsp), %rdx MULXq %rbx, %r14, %r13 adoxq %r14, %rcx adcxq %r13, %rax MULXq %r9, %r14, %r13 adoxq %r14, %rax adcxq %r13, %rbp MULXq %r10, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r11, %rdx, %r13 adoxq %rdx, %r12 adcxq %r8, %r13 adoxq %r8, %r13 movq 144(%rsp), %rdx MULXq %rbx, %r14, %rbx adoxq %r14, %rax adcxq %rbx, %rbp MULXq %r9, %rbx, %r9 adoxq %rbx, %rbp adcxq %r9, %r12 MULXq %r10, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %r11, %rdx, %r9 adoxq %rdx, %r13 adcxq %r8, %r9 adoxq %r8, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %rsi MULXq %r12, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r13, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rax MULXq %r9, %r9, %rdx adoxq %r9, %rax adcxq %r8, %rdx adoxq %r8, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %r8, %rsi adcq %r8, %rcx adcq %r8, %rax sbbq %r8, %r8 andq $38, %r8 addq %r8, %rdi movq %rdi, 152(%rsp) movq %rsi, 160(%rsp) movq %rcx, 168(%rsp) movq %rax, 176(%rsp) movl $50, %edx Ljade_scalarmult_curve25519_amd64_mulx_base$3: movl %edx, 344(%rsp) xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %rsi, %r9, %r8 MULXq %rcx, %rbp, %r10 adcxq %rbp, %r8 MULXq %rax, %rdx, %rbp adcxq %rdx, %r10 movq %rsi, %rdx MULXq %rcx, %r12, %rsi adoxq %r12, %r10 adcxq %rsi, %rbp MULXq %rax, %r12, %rsi adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rcx, %rdx MULXq %rax, %r14, %rcx adcxq %r14, %rsi adoxq %r11, %rsi adcxq %r11, %rcx adoxq %r11, %rcx MULXq %rdx, %r15, %r14 movq %rax, %rdx MULXq %rdx, %rdx, %rax adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %r8, %r8 adoxq %r13, %r8 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rsi, %rsi adoxq %r14, %rsi adcxq %rcx, %rcx adoxq %rdx, %rcx adcxq %r11, %rax adoxq %r11, %rax movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %r9 MULXq %rsi, %rbx, %rsi adoxq %rbx, %r9 adcxq %rsi, %r8 MULXq %rcx, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rdi adcq %r11, %r9 adcq %r11, %r8 adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %r9, %rsi, %rcx MULXq %r8, %rbp, %rax adcxq %rbp, %rcx MULXq %r10, %rdx, %rbp adcxq %rdx, %rax movq %r9, %rdx MULXq %r8, %r12, %r9 adoxq %r12, %rax adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r10, %r14, %r8 adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %r8 adoxq %r11, %r8 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rsi, %rsi adoxq %rbx, %rsi adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %rax, %rax adoxq %r12, %rax adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %rsi MULXq %r9, %rbx, %r9 adoxq %rbx, %rsi adcxq %r9, %rcx MULXq %r8, %r9, %r8 adoxq %r9, %rcx adcxq %r8, %rax MULXq %r10, %r8, %rdx adoxq %r8, %rax adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %r11, %rsi adcq %r11, %rcx adcq %r11, %rax sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi movl 344(%rsp), %edx decl %edx jne Ljade_scalarmult_curve25519_amd64_mulx_base$3 xorq %rbx, %rbx movq 152(%rsp), %rdx MULXq %rdi, %r9, %r8 MULXq %rsi, %r11, %r10 adcxq %r11, %r8 MULXq %rcx, %rbp, %r11 adcxq %rbp, %r10 MULXq %rax, %rdx, %rbp adcxq %rdx, %r11 adcxq %rbx, %rbp movq 160(%rsp), %rdx MULXq %rdi, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r10 MULXq %rsi, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %r11 MULXq %rcx, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbp MULXq %rax, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 168(%rsp), %rdx MULXq %rdi, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %r11 MULXq %rsi, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rbp MULXq %rcx, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rax, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 176(%rsp), %rdx MULXq %rdi, %r14, %rdi adoxq %r14, %r11 adcxq %rdi, %rbp MULXq %rsi, %rdi, %rsi adoxq %rdi, %rbp adcxq %rsi, %r12 MULXq %rcx, %rsi, %rcx adoxq %rsi, %r12 adcxq %rcx, %r13 MULXq %rax, %rcx, %rax adoxq %rcx, %r13 adcxq %rbx, %rax adoxq %rbx, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r8 MULXq %r12, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r10 MULXq %r13, %rsi, %rcx adoxq %rsi, %r10 adcxq %rcx, %r11 MULXq %rax, %rcx, %rax adoxq %rcx, %r11 adcxq %rbx, %rax adoxq %rbx, %rax imulq $38, %rax, %rax addq %rax, %r9 adcq %rbx, %r8 adcq %rbx, %r10 adcq %rbx, %r11 sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %r9 movl $25, %eax Ljade_scalarmult_curve25519_amd64_mulx_base$2: movl %eax, 344(%rsp) xorq %rdi, %rdi movq %r9, %rdx MULXq %rdx, %r9, %rbx MULXq %r8, %rcx, %rax MULXq %r10, %rbp, %rsi adcxq %rbp, %rax MULXq %r11, %rdx, %rbp adcxq %rdx, %rsi movq %r8, %rdx MULXq %r10, %r12, %r8 adoxq %r12, %rsi adcxq %r8, %rbp MULXq %r11, %r12, %r8 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r10, %rdx MULXq %r11, %r14, %r10 adcxq %r14, %r8 adoxq %rdi, %r8 adcxq %rdi, %r10 adoxq %rdi, %r10 MULXq %rdx, %r15, %r14 movq %r11, %rdx MULXq %rdx, %rdx, %r11 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rax, %rax adoxq %r13, %rax adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r8, %r8 adoxq %r14, %r8 adcxq %r10, %r10 adoxq %rdx, %r10 adcxq %rdi, %r11 adoxq %rdi, %r11 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r9 adcxq %rbx, %rcx MULXq %r8, %rbx, %r8 adoxq %rbx, %rcx adcxq %r8, %rax MULXq %r10, %r10, %r8 adoxq %r10, %rax adcxq %r8, %rsi MULXq %r11, %r8, %rdx adoxq %r8, %rsi adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %r9 adcq %rdi, %rcx adcq %rdi, %rax adcq %rdi, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r9 xorq %rdi, %rdi movq %r9, %rdx MULXq %rdx, %r9, %rbx MULXq %rcx, %r8, %r10 MULXq %rax, %rbp, %r11 adcxq %rbp, %r10 MULXq %rsi, %rdx, %rbp adcxq %rdx, %r11 movq %rcx, %rdx MULXq %rax, %r12, %rcx adoxq %r12, %r11 adcxq %rcx, %rbp MULXq %rsi, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %rcx adoxq %rdi, %rcx adcxq %rdi, %rax adoxq %rdi, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r8, %r8 adoxq %rbx, %r8 adcxq %r10, %r10 adoxq %r13, %r10 adcxq %r11, %r11 adoxq %r12, %r11 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rax, %rax adoxq %rdx, %rax adcxq %rdi, %rsi adoxq %rdi, %rsi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r9 adcxq %rbx, %r8 MULXq %rcx, %rbx, %rcx adoxq %rbx, %r8 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %rax, %r11 MULXq %rsi, %rcx, %rax adoxq %rcx, %r11 adcxq %rdi, %rax adoxq %rdi, %rax imulq $38, %rax, %rax addq %rax, %r9 adcq %rdi, %r8 adcq %rdi, %r10 adcq %rdi, %r11 sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r9 movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx_base$2 xorq %rdi, %rdi movq 120(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r8, %rax, %rbx adcxq %rax, %rcx MULXq %r10, %rbp, %rax adcxq %rbp, %rbx MULXq %r11, %rdx, %rbp adcxq %rdx, %rax adcxq %rdi, %rbp movq 128(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rbx MULXq %r8, %r13, %r12 adoxq %r13, %rbx adcxq %r12, %rax MULXq %r10, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rbp MULXq %r11, %rdx, %r12 adoxq %rdx, %rbp adcxq %rdi, %r12 adoxq %rdi, %r12 movq 136(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %rax MULXq %r8, %r14, %r13 adoxq %r14, %rax adcxq %r13, %rbp MULXq %r10, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r11, %rdx, %r13 adoxq %rdx, %r12 adcxq %rdi, %r13 adoxq %rdi, %r13 movq 144(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %rax adcxq %r9, %rbp MULXq %r8, %r9, %r8 adoxq %r9, %rbp adcxq %r8, %r12 MULXq %r10, %r9, %r8 adoxq %r9, %r12 adcxq %r8, %r13 MULXq %r11, %rdx, %r8 adoxq %rdx, %r13 adcxq %rdi, %r8 adoxq %rdi, %r8 movq $38, %rdx MULXq %rbp, %r10, %r9 adoxq %r10, %rsi adcxq %r9, %rcx MULXq %r12, %r10, %r9 adoxq %r10, %rcx adcxq %r9, %rbx MULXq %r13, %r10, %r9 adoxq %r10, %rbx adcxq %r9, %rax MULXq %r8, %r8, %rdx adoxq %r8, %rax adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rdi, %rcx adcq %rdi, %rbx adcq %rdi, %rax sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rsi movl $2, %edx Ljade_scalarmult_curve25519_amd64_mulx_base$1: movl %edx, 344(%rsp) xorq %r10, %r10 movq %rsi, %rdx MULXq %rdx, %rsi, %r11 MULXq %rcx, %r8, %rdi MULXq %rbx, %rbp, %r9 adcxq %rbp, %rdi MULXq %rax, %rdx, %rbp adcxq %rdx, %r9 movq %rcx, %rdx MULXq %rbx, %r12, %rcx adoxq %r12, %r9 adcxq %rcx, %rbp MULXq %rax, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rbx, %rdx MULXq %rax, %r14, %rbx adcxq %r14, %rcx adoxq %r10, %rcx adcxq %r10, %rbx adoxq %r10, %rbx MULXq %rdx, %r15, %r14 movq %rax, %rdx MULXq %rdx, %rdx, %rax adcxq %r8, %r8 adoxq %r11, %r8 adcxq %rdi, %rdi adoxq %r13, %rdi adcxq %r9, %r9 adoxq %r12, %r9 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rbx, %rbx adoxq %rdx, %rbx adcxq %r10, %rax adoxq %r10, %rax movq $38, %rdx MULXq %rbp, %rbp, %r11 adoxq %rbp, %rsi adcxq %r11, %r8 MULXq %rcx, %r11, %rcx adoxq %r11, %r8 adcxq %rcx, %rdi MULXq %rbx, %r11, %rcx adoxq %r11, %rdi adcxq %rcx, %r9 MULXq %rax, %rcx, %rax adoxq %rcx, %r9 adcxq %r10, %rax adoxq %r10, %rax imulq $38, %rax, %rax addq %rax, %rsi adcq %r10, %r8 adcq %r10, %rdi adcq %r10, %r9 sbbq %r10, %r10 andq $38, %r10 addq %r10, %rsi xorq %r10, %r10 movq %rsi, %rdx MULXq %rdx, %rsi, %r11 MULXq %r8, %rcx, %rbx MULXq %rdi, %rbp, %rax adcxq %rbp, %rbx MULXq %r9, %rdx, %rbp adcxq %rdx, %rax movq %r8, %rdx MULXq %rdi, %r12, %r8 adoxq %r12, %rax adcxq %r8, %rbp MULXq %r9, %r12, %r8 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rdi, %rdx MULXq %r9, %r14, %rdi adcxq %r14, %r8 adoxq %r10, %r8 adcxq %r10, %rdi adoxq %r10, %rdi MULXq %rdx, %r15, %r14 movq %r9, %rdx MULXq %rdx, %rdx, %r9 adcxq %rcx, %rcx adoxq %r11, %rcx adcxq %rbx, %rbx adoxq %r13, %rbx adcxq %rax, %rax adoxq %r12, %rax adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r8, %r8 adoxq %r14, %r8 adcxq %rdi, %rdi adoxq %rdx, %rdi adcxq %r10, %r9 adoxq %r10, %r9 movq $38, %rdx MULXq %rbp, %rbp, %r11 adoxq %rbp, %rsi adcxq %r11, %rcx MULXq %r8, %r11, %r8 adoxq %r11, %rcx adcxq %r8, %rbx MULXq %rdi, %r8, %rdi adoxq %r8, %rbx adcxq %rdi, %rax MULXq %r9, %rdi, %rdx adoxq %rdi, %rax adcxq %r10, %rdx adoxq %r10, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %r10, %rcx adcq %r10, %rbx adcq %r10, %rax sbbq %r10, %r10 andq $38, %r10 addq %r10, %rsi movl 344(%rsp), %edx decl %edx jne Ljade_scalarmult_curve25519_amd64_mulx_base$1 xorq %r8, %r8 movq %rsi, %rdx MULXq %rdx, %rsi, %r9 MULXq %rcx, %r10, %rdi MULXq %rbx, %rbp, %r11 adcxq %rbp, %rdi MULXq %rax, %rdx, %rbp adcxq %rdx, %r11 movq %rcx, %rdx MULXq %rbx, %r12, %rcx adoxq %r12, %r11 adcxq %rcx, %rbp MULXq %rax, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rbx, %rdx MULXq %rax, %r14, %rbx adcxq %r14, %rcx adoxq %r8, %rcx adcxq %r8, %rbx adoxq %r8, %rbx MULXq %rdx, %r15, %r14 movq %rax, %rdx MULXq %rdx, %rdx, %rax adcxq %r10, %r10 adoxq %r9, %r10 adcxq %rdi, %rdi adoxq %r13, %rdi adcxq %r11, %r11 adoxq %r12, %r11 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rbx, %rbx adoxq %rdx, %rbx adcxq %r8, %rax adoxq %r8, %rax movq $38, %rdx MULXq %rbp, %rbp, %r9 adoxq %rbp, %rsi adcxq %r9, %r10 MULXq %rcx, %r9, %rcx adoxq %r9, %r10 adcxq %rcx, %rdi MULXq %rbx, %r9, %rcx adoxq %r9, %rdi adcxq %rcx, %r11 MULXq %rax, %rcx, %rax adoxq %rcx, %r11 adcxq %r8, %rax adoxq %r8, %rax imulq $38, %rax, %rax addq %rax, %rsi adcq %r8, %r10 adcq %r8, %rdi adcq %r8, %r11 sbbq %r8, %r8 andq $38, %r8 addq %r8, %rsi xorq %rbx, %rbx movq 88(%rsp), %rdx MULXq %rsi, %rcx, %rax MULXq %r10, %r9, %r8 adcxq %r9, %rax MULXq %rdi, %rbp, %r9 adcxq %rbp, %r8 MULXq %r11, %rdx, %rbp adcxq %rdx, %r9 adcxq %rbx, %rbp movq 96(%rsp), %rdx MULXq %rsi, %r13, %r12 adoxq %r13, %rax adcxq %r12, %r8 MULXq %r10, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r9 MULXq %rdi, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %rbp MULXq %r11, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 104(%rsp), %rdx MULXq %rsi, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %r9 MULXq %r10, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %rbp MULXq %rdi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r11, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 112(%rsp), %rdx MULXq %rsi, %r14, %rsi adoxq %r14, %r9 adcxq %rsi, %rbp MULXq %r10, %r10, %rsi adoxq %r10, %rbp adcxq %rsi, %r12 MULXq %rdi, %rdi, %rsi adoxq %rdi, %r12 adcxq %rsi, %r13 MULXq %r11, %rdx, %rsi adoxq %rdx, %r13 adcxq %rbx, %rsi adoxq %rbx, %rsi movq $38, %rdx MULXq %rbp, %r10, %rdi adoxq %r10, %rcx adcxq %rdi, %rax MULXq %r12, %r10, %rdi adoxq %r10, %rax adcxq %rdi, %r8 MULXq %r13, %r10, %rdi adoxq %r10, %r8 adcxq %rdi, %r9 MULXq %rsi, %rsi, %rdx adoxq %rsi, %r9 adcxq %rbx, %rdx adoxq %rbx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rcx adcq %rbx, %rax adcq %rbx, %r8 adcq %rbx, %r9 sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %rcx xorq %rsi, %rsi movq 56(%rsp), %rdx MULXq %rcx, %r10, %rdi MULXq %rax, %rbx, %r11 adcxq %rbx, %rdi MULXq %r8, %rbp, %rbx adcxq %rbp, %r11 MULXq %r9, %rdx, %rbp adcxq %rdx, %rbx adcxq %rsi, %rbp movq 64(%rsp), %rdx MULXq %rcx, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r11 MULXq %rax, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbx MULXq %r8, %r13, %r12 adoxq %r13, %rbx adcxq %r12, %rbp MULXq %r9, %rdx, %r12 adoxq %rdx, %rbp adcxq %rsi, %r12 adoxq %rsi, %r12 movq 72(%rsp), %rdx MULXq %rcx, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rbx MULXq %rax, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %rbp MULXq %r8, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r9, %rdx, %r13 adoxq %rdx, %r12 adcxq %rsi, %r13 adoxq %rsi, %r13 movq 80(%rsp), %rdx MULXq %rcx, %r14, %rcx adoxq %r14, %rbx adcxq %rcx, %rbp MULXq %rax, %rcx, %rax adoxq %rcx, %rbp adcxq %rax, %r12 MULXq %r8, %rcx, %rax adoxq %rcx, %r12 adcxq %rax, %r13 MULXq %r9, %rcx, %rax adoxq %rcx, %r13 adcxq %rsi, %rax adoxq %rsi, %rax movq $38, %rdx MULXq %rbp, %r8, %rcx adoxq %r8, %r10 adcxq %rcx, %rdi MULXq %r12, %r8, %rcx adoxq %r8, %rdi adcxq %rcx, %r11 MULXq %r13, %r8, %rcx adoxq %r8, %r11 adcxq %rcx, %rbx MULXq %rax, %rcx, %rax adoxq %rcx, %rbx adcxq %rsi, %rax adoxq %rsi, %rax imulq $38, %rax, %rax addq %rax, %r10 adcq %rsi, %rdi adcq %rsi, %r11 adcq %rsi, %rbx sbbq %rsi, %rsi andq $38, %rsi addq %rsi, %r10 leaq (%rbx,%rbx), %rax sarq $63, %rbx shrq $1, %rax andq $19, %rbx addq $19, %rbx addq %rbx, %r10 adcq $0, %rdi adcq $0, %r11 adcq $0, %rax leaq (%rax,%rax), %rcx sarq $63, %rax shrq $1, %rcx notq %rax andq $19, %rax subq %rax, %r10 sbbq $0, %rdi sbbq $0, %r11 sbbq $0, %rcx movq (%rsp), %rax movq %r10, (%rax) movq %rdi, 8(%rax) movq %r11, 16(%rax) movq %rcx, 24(%rax) xorq %rax, %rax movq 352(%rsp), %rbx movq 360(%rsp), %rbp movq 368(%rsp), %r12 movq 376(%rsp), %r13 movq 384(%rsp), %r14 movq 392(%rsp), %r15 movq 400(%rsp), %rsp ret _jade_scalarmult_curve25519_amd64_mulx: jade_scalarmult_curve25519_amd64_mulx: movq %rsp, %rax leaq -408(%rsp), %rsp andq $-8, %rsp movq %rax, 400(%rsp) movq %rbx, 352(%rsp) movq %rbp, 360(%rsp) movq %r12, 368(%rsp) movq %r13, 376(%rsp) movq %r14, 384(%rsp) movq %r15, 392(%rsp) movq %rdi, (%rsp) movq (%rsi), %rax movq %rax, 24(%rsp) movq 8(%rsi), %rax movq %rax, 32(%rsp) movq 16(%rsi), %rax movq %rax, 40(%rsp) movq 24(%rsi), %rax movq %rax, 48(%rsp) andb $-8, 24(%rsp) andb $127, 55(%rsp) orb $64, 55(%rsp) movq (%rdx), %rcx movq 8(%rdx), %r8 movq 16(%rdx), %r10 movq 24(%rdx), %rdx movq $9223372036854775807, %rax andq %rax, %rdx xorq %r11, %r11 movq $1, 56(%rsp) movq $0, %rdi movq %rcx, 88(%rsp) movq %r8, 96(%rsp) movq %r10, 104(%rsp) movq %rdx, 112(%rsp) movq $1, 120(%rsp) movq %r11, 64(%rsp) movq %r11, %r9 movq %r11, 128(%rsp) movq %r11, 72(%rsp) movq %r11, %rax movq %r11, 136(%rsp) movq %r11, 80(%rsp) movq %r11, %rsi movq %r11, 144(%rsp) movq %rcx, 152(%rsp) movq %r8, 160(%rsp) movq %r10, 168(%rsp) movq %rdx, 176(%rsp) movq $255, %rcx movq $0, 8(%rsp) Ljade_scalarmult_curve25519_amd64_mulx$9: addq $-1, %rcx movq %rcx, 16(%rsp) movq %rcx, %rdx shrq $3, %rdx movzbq 24(%rsp,%rdx), %rdx andq $7, %rcx shrq %cl, %rdx andq $1, %rdx movq 8(%rsp), %r8 xorq %rdx, %r8 xorq %rcx, %rcx subq %r8, %rcx movq 120(%rsp), %r8 movq 128(%rsp), %r10 movq 136(%rsp), %r11 movq 144(%rsp), %rbx movq %rdi, %rbp movq %r9, %r12 movq %rax, %r13 movq %rsi, %r14 xorq %r8, %rbp xorq %r10, %r12 xorq %r11, %r13 xorq %rbx, %r14 andq %rcx, %rbp andq %rcx, %r12 andq %rcx, %r13 andq %rcx, %r14 xorq %rbp, %rdi xorq %rbp, %r8 movq %r8, 120(%rsp) xorq %r12, %r9 xorq %r12, %r10 movq %r10, 128(%rsp) xorq %r13, %rax xorq %r13, %r11 movq %r11, 136(%rsp) xorq %r14, %rsi xorq %r14, %rbx movq %rbx, 144(%rsp) movq 88(%rsp), %r11 movq 96(%rsp), %rbx movq 104(%rsp), %r8 movq 112(%rsp), %r10 movq 56(%rsp), %rbp movq %r11, %r12 xorq %rbp, %r12 andq %rcx, %r12 xorq %r12, %rbp xorq %r12, %r11 movq %rbp, 56(%rsp) movq %r11, 88(%rsp) movq 64(%rsp), %r11 movq %rbx, %rbp xorq %r11, %rbp andq %rcx, %rbp xorq %rbp, %r11 xorq %rbp, %rbx movq %r11, 64(%rsp) movq %rbx, 96(%rsp) movq 72(%rsp), %r11 movq %r8, %rbx xorq %r11, %rbx andq %rcx, %rbx xorq %rbx, %r11 xorq %rbx, %r8 movq %r11, 72(%rsp) movq %r8, 104(%rsp) movq 80(%rsp), %r8 movq %r10, %r11 xorq %r8, %r11 andq %rcx, %r11 xorq %r11, %r8 xorq %r11, %r10 movq %r8, 80(%rsp) movq %r10, 112(%rsp) movq %rdx, 8(%rsp) xorq %rcx, %rcx movq 56(%rsp), %rdx movq 64(%rsp), %r8 movq 72(%rsp), %r10 movq 80(%rsp), %r11 subq %rdi, %rdx sbbq %r9, %r8 sbbq %rax, %r10 sbbq %rsi, %r11 sbbq %rcx, %rcx andq $38, %rcx subq %rcx, %rdx sbbq $0, %r8 sbbq $0, %r10 sbbq $0, %r11 sbbq %rcx, %rcx andq $38, %rcx subq %rcx, %rdx movq %rdx, 184(%rsp) movq %r8, 192(%rsp) movq %r10, 200(%rsp) movq %r11, 208(%rsp) xorq %rcx, %rcx addq 56(%rsp), %rdi adcq 64(%rsp), %r9 adcq 72(%rsp), %rax adcq 80(%rsp), %rsi sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rdi adcq $0, %r9 adcq $0, %rax adcq $0, %rsi sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rdi movq %rdi, 216(%rsp) movq %r9, 224(%rsp) movq %rax, 232(%rsp) movq %rsi, 240(%rsp) movq 88(%rsp), %rax movq 96(%rsp), %rcx movq 104(%rsp), %rdx movq 112(%rsp), %rsi xorq %rdi, %rdi subq 120(%rsp), %rax sbbq 128(%rsp), %rcx sbbq 136(%rsp), %rdx sbbq 144(%rsp), %rsi sbbq %rdi, %rdi andq $38, %rdi subq %rdi, %rax sbbq $0, %rcx sbbq $0, %rdx sbbq $0, %rsi sbbq %rdi, %rdi andq $38, %rdi subq %rdi, %rax movq %rax, 248(%rsp) movq %rcx, 256(%rsp) movq %rdx, 264(%rsp) movq %rsi, 272(%rsp) movq 88(%rsp), %rax movq 96(%rsp), %rcx movq 104(%rsp), %rdx movq 112(%rsp), %rsi xorq %rdi, %rdi addq 120(%rsp), %rax adcq 128(%rsp), %rcx adcq 136(%rsp), %rdx adcq 144(%rsp), %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax adcq $0, %rcx adcq $0, %rdx adcq $0, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax movq %rax, 280(%rsp) movq %rcx, 288(%rsp) movq %rdx, 296(%rsp) movq %rsi, 304(%rsp) movq 248(%rsp), %r9 movq 256(%rsp), %r10 movq 264(%rsp), %r11 movq 272(%rsp), %rbx xorq %rax, %rax movq 216(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r10, %r8, %rdi adcxq %r8, %rcx MULXq %r11, %rbp, %r8 adcxq %rbp, %rdi MULXq %rbx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 224(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r8 MULXq %r11, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 232(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r8 MULXq %r10, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 240(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %r8 adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rax, %r9 adoxq %rax, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r12, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %r13, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r8 MULXq %r9, %r9, %rdx adoxq %r9, %r8 adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rax, %rcx adcq %rax, %rdi adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 248(%rsp) movq %rcx, 256(%rsp) movq %rdi, 264(%rsp) movq %r8, 272(%rsp) movq 184(%rsp), %r9 movq 192(%rsp), %r10 movq 200(%rsp), %r11 movq 208(%rsp), %rbx xorq %rax, %rax movq 280(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r10, %r8, %rdi adcxq %r8, %rcx MULXq %r11, %rbp, %r8 adcxq %rbp, %rdi MULXq %rbx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 288(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r8 MULXq %r11, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 296(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r8 MULXq %r10, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 304(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %r8 adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rax, %r9 adoxq %rax, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r12, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %r13, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r8 MULXq %r9, %r9, %rdx adoxq %r9, %r8 adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rax, %rcx adcq %rax, %rdi adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 280(%rsp) movq %rcx, 288(%rsp) movq %rdi, 296(%rsp) movq %r8, 304(%rsp) movq 216(%rsp), %rdx movq 224(%rsp), %r11 movq 232(%rsp), %r13 movq 240(%rsp), %rbx xorq %rax, %rax MULXq %rdx, %rsi, %rcx MULXq %r11, %r8, %rdi MULXq %r13, %r10, %r9 adcxq %r10, %rdi MULXq %rbx, %rdx, %r10 adcxq %rdx, %r9 movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %rax, %r11 adcxq %rax, %r13 adoxq %rax, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %r8, %r8 adoxq %rcx, %r8 adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %rax, %rbx adoxq %rax, %rbx movq $38, %rdx MULXq %r10, %r10, %rcx adoxq %r10, %rsi adcxq %rcx, %r8 MULXq %r11, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %rdi MULXq %r13, %r10, %rcx adoxq %r10, %rdi adcxq %rcx, %r9 MULXq %rbx, %rdx, %rcx adoxq %rdx, %r9 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rsi adcq %rax, %r8 adcq %rax, %rdi adcq %rax, %r9 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 216(%rsp) movq %r8, 224(%rsp) movq %rdi, 232(%rsp) movq %r9, 240(%rsp) movq 184(%rsp), %rdx movq 192(%rsp), %r11 movq 200(%rsp), %r13 movq 208(%rsp), %rbx xorq %r8, %r8 MULXq %rdx, %rax, %r9 MULXq %r11, %rsi, %rcx MULXq %r13, %r10, %rdi adcxq %r10, %rcx MULXq %rbx, %rdx, %r10 adcxq %rdx, %rdi movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %rdi adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %r8, %r11 adcxq %r8, %r13 adoxq %r8, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %rsi, %rsi adoxq %r9, %rsi adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rdi, %rdi adoxq %rbp, %rdi adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %r8, %rbx adoxq %r8, %rbx movq $38, %rdx MULXq %r10, %r10, %r9 adoxq %r10, %rax adcxq %r9, %rsi MULXq %r11, %r10, %r9 adoxq %r10, %rsi adcxq %r9, %rcx MULXq %r13, %r10, %r9 adoxq %r10, %rcx adcxq %r9, %rdi MULXq %rbx, %r9, %rdx adoxq %r9, %rdi adcxq %r8, %rdx adoxq %r8, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %r8, %rsi adcq %r8, %rcx adcq %r8, %rdi sbbq %r8, %r8 andq $38, %r8 addq %r8, %rax movq 248(%rsp), %rdx movq 256(%rsp), %r8 movq 264(%rsp), %r9 movq 272(%rsp), %r10 xorq %r11, %r11 addq 280(%rsp), %rdx adcq 288(%rsp), %r8 adcq 296(%rsp), %r9 adcq 304(%rsp), %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdx adcq $0, %r8 adcq $0, %r9 adcq $0, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdx movq %rdx, 184(%rsp) movq %r8, 192(%rsp) movq %r9, 200(%rsp) movq %r10, 208(%rsp) movq 248(%rsp), %rdx movq 256(%rsp), %r8 movq 264(%rsp), %r9 movq 272(%rsp), %r10 xorq %r11, %r11 subq 280(%rsp), %rdx sbbq 288(%rsp), %r8 sbbq 296(%rsp), %r9 sbbq 304(%rsp), %r10 sbbq %r11, %r11 andq $38, %r11 subq %r11, %rdx sbbq $0, %r8 sbbq $0, %r9 sbbq $0, %r10 sbbq %r11, %r11 andq $38, %r11 subq %r11, %rdx movq %rdx, 280(%rsp) movq %r8, 288(%rsp) movq %r9, 296(%rsp) movq %r10, 304(%rsp) xorq %rdx, %rdx movq 216(%rsp), %r8 movq 224(%rsp), %r9 movq 232(%rsp), %r10 movq 240(%rsp), %r11 subq %rax, %r8 sbbq %rsi, %r9 sbbq %rcx, %r10 sbbq %rdi, %r11 sbbq %rdx, %rdx andq $38, %rdx subq %rdx, %r8 sbbq $0, %r9 sbbq $0, %r10 sbbq $0, %r11 sbbq %rdx, %rdx andq $38, %rdx subq %rdx, %r8 movq %r8, 248(%rsp) movq %r9, 256(%rsp) movq %r10, 264(%rsp) movq %r11, 272(%rsp) xorq %r8, %r8 movq 216(%rsp), %rdx MULXq %rax, %r10, %r9 MULXq %rsi, %rbx, %r11 adcxq %rbx, %r9 MULXq %rcx, %rbp, %rbx adcxq %rbp, %r11 MULXq %rdi, %rdx, %rbp adcxq %rdx, %rbx adcxq %r8, %rbp movq 224(%rsp), %rdx MULXq %rax, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r11 MULXq %rsi, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbx MULXq %rcx, %r13, %r12 adoxq %r13, %rbx adcxq %r12, %rbp MULXq %rdi, %rdx, %r12 adoxq %rdx, %rbp adcxq %r8, %r12 adoxq %r8, %r12 movq 232(%rsp), %rdx MULXq %rax, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rbx MULXq %rsi, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %rbp MULXq %rcx, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rdi, %rdx, %r13 adoxq %rdx, %r12 adcxq %r8, %r13 adoxq %r8, %r13 movq 240(%rsp), %rdx MULXq %rax, %r14, %rax adoxq %r14, %rbx adcxq %rax, %rbp MULXq %rsi, %rsi, %rax adoxq %rsi, %rbp adcxq %rax, %r12 MULXq %rcx, %rcx, %rax adoxq %rcx, %r12 adcxq %rax, %r13 MULXq %rdi, %rcx, %rax adoxq %rcx, %r13 adcxq %r8, %rax adoxq %r8, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %r10 adcxq %rcx, %r9 MULXq %r12, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r11 MULXq %r13, %rsi, %rcx adoxq %rsi, %r11 adcxq %rcx, %rbx MULXq %rax, %rcx, %rax adoxq %rcx, %rbx adcxq %r8, %rax adoxq %r8, %rax imulq $38, %rax, %rax addq %rax, %r10 adcq %r8, %r9 adcq %r8, %r11 adcq %r8, %rbx sbbq %r8, %r8 andq $38, %r8 addq %r8, %r10 movq %r10, 56(%rsp) movq %r9, 64(%rsp) movq %r11, 72(%rsp) movq %rbx, 80(%rsp) movq 280(%rsp), %rdx movq 288(%rsp), %r11 movq 296(%rsp), %r13 movq 304(%rsp), %rbx xorq %rax, %rax MULXq %rdx, %rsi, %rcx MULXq %r11, %r8, %rdi MULXq %r13, %r10, %r9 adcxq %r10, %rdi MULXq %rbx, %rdx, %r10 adcxq %rdx, %r9 movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %rax, %r11 adcxq %rax, %r13 adoxq %rax, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %r8, %r8 adoxq %rcx, %r8 adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %rax, %rbx adoxq %rax, %rbx movq $38, %rdx MULXq %r10, %r10, %rcx adoxq %r10, %rsi adcxq %rcx, %r8 MULXq %r11, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %rdi MULXq %r13, %r10, %rcx adoxq %r10, %rdi adcxq %rcx, %r9 MULXq %rbx, %rdx, %rcx adoxq %rdx, %r9 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rsi adcq %rax, %r8 adcq %rax, %rdi adcq %rax, %r9 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 280(%rsp) movq %r8, 288(%rsp) movq %rdi, 296(%rsp) movq %r9, 304(%rsp) movq $121665, %rdx MULXq 248(%rsp), %rcx, %rax MULXq 256(%rsp), %rdi, %rsi addq %rdi, %rax MULXq 264(%rsp), %r8, %rdi adcq %r8, %rsi MULXq 272(%rsp), %r9, %r8 adcq %r9, %rdi adcq $0, %r8 imulq $38, %r8, %r8 addq %r8, %rcx adcq $0, %rax adcq $0, %rsi adcq $0, %rdi sbbq %rdx, %rdx andq $38, %rdx addq %rdx, %rcx movq %rcx, 312(%rsp) movq %rax, 320(%rsp) movq %rsi, 328(%rsp) movq %rdi, 336(%rsp) movq 184(%rsp), %rdx movq 192(%rsp), %r11 movq 200(%rsp), %r13 movq 208(%rsp), %rbx xorq %rax, %rax MULXq %rdx, %rsi, %rcx MULXq %r11, %r8, %rdi MULXq %r13, %r10, %r9 adcxq %r10, %rdi MULXq %rbx, %rdx, %r10 adcxq %rdx, %r9 movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %rax, %r11 adcxq %rax, %r13 adoxq %rax, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %r8, %r8 adoxq %rcx, %r8 adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %rax, %rbx adoxq %rax, %rbx movq $38, %rdx MULXq %r10, %r10, %rcx adoxq %r10, %rsi adcxq %rcx, %r8 MULXq %r11, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %rdi MULXq %r13, %r10, %rcx adoxq %r10, %rdi adcxq %rcx, %r9 MULXq %rbx, %rdx, %rcx adoxq %rdx, %r9 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rsi adcq %rax, %r8 adcq %rax, %rdi adcq %rax, %r9 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 88(%rsp) movq %r8, 96(%rsp) movq %rdi, 104(%rsp) movq %r9, 112(%rsp) movq 216(%rsp), %rax movq 224(%rsp), %rcx movq 232(%rsp), %rdx movq 240(%rsp), %rsi xorq %rdi, %rdi addq 312(%rsp), %rax adcq 320(%rsp), %rcx adcq 328(%rsp), %rdx adcq 336(%rsp), %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax adcq $0, %rcx adcq $0, %rdx adcq $0, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax movq %rax, 312(%rsp) movq %rcx, 320(%rsp) movq %rdx, 328(%rsp) movq %rsi, 336(%rsp) movq 280(%rsp), %r9 movq 288(%rsp), %r10 movq 296(%rsp), %r11 movq 304(%rsp), %rbx xorq %rax, %rax movq 152(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r10, %r8, %rdi adcxq %r8, %rcx MULXq %r11, %rbp, %r8 adcxq %rbp, %rdi MULXq %rbx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 160(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r8 MULXq %r11, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 168(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r8 MULXq %r10, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 176(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %r8 adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rax, %r9 adoxq %rax, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r12, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %r13, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r8 MULXq %r9, %r9, %rdx adoxq %r9, %r8 adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rax, %rcx adcq %rax, %rdi adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 120(%rsp) movq %rcx, 128(%rsp) movq %rdi, 136(%rsp) movq %r8, 144(%rsp) movq 312(%rsp), %r8 movq 320(%rsp), %r10 movq 328(%rsp), %r11 movq 336(%rsp), %rbx xorq %rcx, %rcx movq 248(%rsp), %rdx MULXq %r8, %rdi, %r9 MULXq %r10, %rsi, %rax adcxq %rsi, %r9 MULXq %r11, %rbp, %rsi adcxq %rbp, %rax MULXq %rbx, %rdx, %rbp adcxq %rdx, %rsi adcxq %rcx, %rbp movq 256(%rsp), %rdx MULXq %r8, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %rax MULXq %r10, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rsi MULXq %r11, %r13, %r12 adoxq %r13, %rsi adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rcx, %r12 adoxq %rcx, %r12 movq 264(%rsp), %rdx MULXq %r8, %r14, %r13 adoxq %r14, %rax adcxq %r13, %rsi MULXq %r10, %r14, %r13 adoxq %r14, %rsi adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rcx, %r13 adoxq %rcx, %r13 movq 272(%rsp), %rdx MULXq %r8, %r14, %r8 adoxq %r14, %rsi adcxq %r8, %rbp MULXq %r10, %r10, %r8 adoxq %r10, %rbp adcxq %r8, %r12 MULXq %r11, %r10, %r8 adoxq %r10, %r12 adcxq %r8, %r13 MULXq %rbx, %rdx, %r8 adoxq %rdx, %r13 adcxq %rcx, %r8 adoxq %rcx, %r8 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r9 MULXq %r12, %r11, %r10 adoxq %r11, %r9 adcxq %r10, %rax MULXq %r13, %r11, %r10 adoxq %r11, %rax adcxq %r10, %rsi MULXq %r8, %r8, %rdx adoxq %r8, %rsi adcxq %rcx, %rdx adoxq %rcx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %rcx, %r9 adcq %rcx, %rax adcq %rcx, %rsi sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rdi movq 16(%rsp), %rcx cmpq $0, %rcx jnbe Ljade_scalarmult_curve25519_amd64_mulx$9 movq %rdi, 120(%rsp) movq %r9, 128(%rsp) movq %rax, 136(%rsp) movq %rsi, 144(%rsp) xorq %r10, %r10 movq %rdi, %rdx MULXq %rdx, %r11, %rbx MULXq %r9, %r8, %rdi MULXq %rax, %rbp, %rcx adcxq %rbp, %rdi MULXq %rsi, %rdx, %rbp adcxq %rdx, %rcx movq %r9, %rdx MULXq %rax, %r12, %r9 adoxq %r12, %rcx adcxq %r9, %rbp MULXq %rsi, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %r9 adoxq %r10, %r9 adcxq %r10, %rax adoxq %r10, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r8, %r8 adoxq %rbx, %r8 adcxq %rdi, %rdi adoxq %r13, %rdi adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %rax, %rax adoxq %rdx, %rax adcxq %r10, %rsi adoxq %r10, %rsi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r11 adcxq %rbx, %r8 MULXq %r9, %rbx, %r9 adoxq %rbx, %r8 adcxq %r9, %rdi MULXq %rax, %r9, %rax adoxq %r9, %rdi adcxq %rax, %rcx MULXq %rsi, %rdx, %rax adoxq %rdx, %rcx adcxq %r10, %rax adoxq %r10, %rax imulq $38, %rax, %rax addq %rax, %r11 adcq %r10, %r8 adcq %r10, %rdi adcq %r10, %rcx sbbq %r10, %r10 andq $38, %r10 addq %r10, %r11 movq %r11, 88(%rsp) movq %r8, 96(%rsp) movq %rdi, 104(%rsp) movq %rcx, 112(%rsp) xorq %rsi, %rsi movq %r11, %rdx MULXq %rdx, %r9, %rbx MULXq %r8, %r11, %r10 MULXq %rdi, %rbp, %rax adcxq %rbp, %r10 MULXq %rcx, %rdx, %rbp adcxq %rdx, %rax movq %r8, %rdx MULXq %rdi, %r12, %r8 adoxq %r12, %rax adcxq %r8, %rbp MULXq %rcx, %r12, %r8 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rdi, %rdx MULXq %rcx, %r14, %rdi adcxq %r14, %r8 adoxq %rsi, %r8 adcxq %rsi, %rdi adoxq %rsi, %rdi MULXq %rdx, %r15, %r14 movq %rcx, %rdx MULXq %rdx, %rdx, %rcx adcxq %r11, %r11 adoxq %rbx, %r11 adcxq %r10, %r10 adoxq %r13, %r10 adcxq %rax, %rax adoxq %r12, %rax adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r8, %r8 adoxq %r14, %r8 adcxq %rdi, %rdi adoxq %rdx, %rdi adcxq %rsi, %rcx adoxq %rsi, %rcx movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r9 adcxq %rbx, %r11 MULXq %r8, %rbx, %r8 adoxq %rbx, %r11 adcxq %r8, %r10 MULXq %rdi, %r8, %rdi adoxq %r8, %r10 adcxq %rdi, %rax MULXq %rcx, %rdx, %rcx adoxq %rdx, %rax adcxq %rsi, %rcx adoxq %rsi, %rcx imulq $38, %rcx, %rcx addq %rcx, %r9 adcq %rsi, %r11 adcq %rsi, %r10 adcq %rsi, %rax sbbq %rsi, %rsi andq $38, %rsi addq %rsi, %r9 xorq %rcx, %rcx movq %r9, %rdx MULXq %rdx, %rsi, %rbx MULXq %r11, %r8, %rdi MULXq %r10, %rbp, %r9 adcxq %rbp, %rdi MULXq %rax, %rdx, %rbp adcxq %rdx, %r9 movq %r11, %rdx MULXq %r10, %r12, %r11 adoxq %r12, %r9 adcxq %r11, %rbp MULXq %rax, %r12, %r11 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r10, %rdx MULXq %rax, %r14, %r10 adcxq %r14, %r11 adoxq %rcx, %r11 adcxq %rcx, %r10 adoxq %rcx, %r10 MULXq %rdx, %r15, %r14 movq %rax, %rdx MULXq %rdx, %rdx, %rax adcxq %r8, %r8 adoxq %rbx, %r8 adcxq %rdi, %rdi adoxq %r13, %rdi adcxq %r9, %r9 adoxq %r12, %r9 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r10, %r10 adoxq %rdx, %r10 adcxq %rcx, %rax adoxq %rcx, %rax movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rsi adcxq %rbx, %r8 MULXq %r11, %rbx, %r11 adoxq %rbx, %r8 adcxq %r11, %rdi MULXq %r10, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r9 MULXq %rax, %rdx, %rax adoxq %rdx, %r9 adcxq %rcx, %rax adoxq %rcx, %rax imulq $38, %rax, %rax addq %rax, %rsi adcq %rcx, %r8 adcq %rcx, %rdi adcq %rcx, %r9 sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rsi xorq %r10, %r10 movq 120(%rsp), %rdx MULXq %rsi, %rbx, %r11 MULXq %r8, %rcx, %rax adcxq %rcx, %r11 MULXq %rdi, %rbp, %rcx adcxq %rbp, %rax MULXq %r9, %rdx, %rbp adcxq %rdx, %rcx adcxq %r10, %rbp movq 128(%rsp), %rdx MULXq %rsi, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rax MULXq %r8, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rcx MULXq %rdi, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rbp MULXq %r9, %rdx, %r12 adoxq %rdx, %rbp adcxq %r10, %r12 adoxq %r10, %r12 movq 136(%rsp), %rdx MULXq %rsi, %r14, %r13 adoxq %r14, %rax adcxq %r13, %rcx MULXq %r8, %r14, %r13 adoxq %r14, %rcx adcxq %r13, %rbp MULXq %rdi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r9, %rdx, %r13 adoxq %rdx, %r12 adcxq %r10, %r13 adoxq %r10, %r13 movq 144(%rsp), %rdx MULXq %rsi, %r14, %rsi adoxq %r14, %rcx adcxq %rsi, %rbp MULXq %r8, %r8, %rsi adoxq %r8, %rbp adcxq %rsi, %r12 MULXq %rdi, %rdi, %rsi adoxq %rdi, %r12 adcxq %rsi, %r13 MULXq %r9, %rdx, %rsi adoxq %rdx, %r13 adcxq %r10, %rsi adoxq %r10, %rsi movq $38, %rdx MULXq %rbp, %r8, %rdi adoxq %r8, %rbx adcxq %rdi, %r11 MULXq %r12, %r8, %rdi adoxq %r8, %r11 adcxq %rdi, %rax MULXq %r13, %r8, %rdi adoxq %r8, %rax adcxq %rdi, %rcx MULXq %rsi, %rsi, %rdx adoxq %rsi, %rcx adcxq %r10, %rdx adoxq %r10, %rdx imulq $38, %rdx, %rdx addq %rdx, %rbx adcq %r10, %r11 adcq %r10, %rax adcq %r10, %rcx sbbq %r10, %r10 andq $38, %r10 addq %r10, %rbx movq %rbx, 120(%rsp) movq %r11, 128(%rsp) movq %rax, 136(%rsp) movq %rcx, 144(%rsp) xorq %rsi, %rsi movq 88(%rsp), %rdx MULXq %rbx, %rdi, %r10 MULXq %r11, %r8, %r9 adcxq %r8, %r10 MULXq %rax, %rbp, %r8 adcxq %rbp, %r9 MULXq %rcx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rsi, %rbp movq 96(%rsp), %rdx MULXq %rbx, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %r9 MULXq %r11, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r8 MULXq %rax, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rcx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rsi, %r12 adoxq %rsi, %r12 movq 104(%rsp), %rdx MULXq %rbx, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %r8 MULXq %r11, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %rax, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rcx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rsi, %r13 adoxq %rsi, %r13 movq 112(%rsp), %rdx MULXq %rbx, %r14, %rbx adoxq %r14, %r8 adcxq %rbx, %rbp MULXq %r11, %rbx, %r11 adoxq %rbx, %rbp adcxq %r11, %r12 MULXq %rax, %r11, %rax adoxq %r11, %r12 adcxq %rax, %r13 MULXq %rcx, %rcx, %rax adoxq %rcx, %r13 adcxq %rsi, %rax adoxq %rsi, %rax movq $38, %rdx MULXq %rbp, %r11, %rcx adoxq %r11, %rdi adcxq %rcx, %r10 MULXq %r12, %r11, %rcx adoxq %r11, %r10 adcxq %rcx, %r9 MULXq %r13, %r11, %rcx adoxq %r11, %r9 adcxq %rcx, %r8 MULXq %rax, %rcx, %rax adoxq %rcx, %r8 adcxq %rsi, %rax adoxq %rsi, %rax imulq $38, %rax, %rax addq %rax, %rdi adcq %rsi, %r10 adcq %rsi, %r9 adcq %rsi, %r8 sbbq %rsi, %rsi andq $38, %rsi addq %rsi, %rdi movq %rdi, 88(%rsp) movq %r10, 96(%rsp) movq %r9, 104(%rsp) movq %r8, 112(%rsp) xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rax, %rbx MULXq %r10, %rsi, %rcx MULXq %r9, %rbp, %rdi adcxq %rbp, %rcx MULXq %r8, %rdx, %rbp adcxq %rdx, %rdi movq %r10, %rdx MULXq %r9, %r12, %r10 adoxq %r12, %rdi adcxq %r10, %rbp MULXq %r8, %r12, %r10 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r9, %rdx MULXq %r8, %r14, %r9 adcxq %r14, %r10 adoxq %r11, %r10 adcxq %r11, %r9 adoxq %r11, %r9 MULXq %rdx, %r15, %r14 movq %r8, %rdx MULXq %rdx, %rdx, %r8 adcxq %rsi, %rsi adoxq %rbx, %rsi adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r10, %r10 adoxq %r14, %r10 adcxq %r9, %r9 adoxq %rdx, %r9 adcxq %r11, %r8 adoxq %r11, %r8 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rax adcxq %rbx, %rsi MULXq %r10, %rbx, %r10 adoxq %rbx, %rsi adcxq %r10, %rcx MULXq %r9, %r10, %r9 adoxq %r10, %rcx adcxq %r9, %rdi MULXq %r8, %r8, %rdx adoxq %r8, %rdi adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %r11, %rsi adcq %r11, %rcx adcq %r11, %rdi sbbq %r11, %r11 andq $38, %r11 addq %r11, %rax xorq %r11, %r11 movq 120(%rsp), %rdx MULXq %rax, %rbx, %r10 MULXq %rsi, %r9, %r8 adcxq %r9, %r10 MULXq %rcx, %rbp, %r9 adcxq %rbp, %r8 MULXq %rdi, %rdx, %rbp adcxq %rdx, %r9 adcxq %r11, %rbp movq 128(%rsp), %rdx MULXq %rax, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %r8 MULXq %rsi, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r9 MULXq %rcx, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %rbp MULXq %rdi, %rdx, %r12 adoxq %rdx, %rbp adcxq %r11, %r12 adoxq %r11, %r12 movq 136(%rsp), %rdx MULXq %rax, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %r9 MULXq %rsi, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %rbp MULXq %rcx, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rdi, %rdx, %r13 adoxq %rdx, %r12 adcxq %r11, %r13 adoxq %r11, %r13 movq 144(%rsp), %rdx MULXq %rax, %r14, %rax adoxq %r14, %r9 adcxq %rax, %rbp MULXq %rsi, %rsi, %rax adoxq %rsi, %rbp adcxq %rax, %r12 MULXq %rcx, %rcx, %rax adoxq %rcx, %r12 adcxq %rax, %r13 MULXq %rdi, %rcx, %rax adoxq %rcx, %r13 adcxq %r11, %rax adoxq %r11, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %rbx adcxq %rcx, %r10 MULXq %r12, %rsi, %rcx adoxq %rsi, %r10 adcxq %rcx, %r8 MULXq %r13, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r9 MULXq %rax, %rcx, %rax adoxq %rcx, %r9 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rbx adcq %r11, %r10 adcq %r11, %r8 adcq %r11, %r9 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rbx movq %rbx, 120(%rsp) movq %r10, 128(%rsp) movq %r8, 136(%rsp) movq %r9, 144(%rsp) xorq %r11, %r11 movq %rbx, %rdx MULXq %rdx, %rdi, %rbx MULXq %r10, %rax, %rsi MULXq %r8, %rbp, %rcx adcxq %rbp, %rsi MULXq %r9, %rdx, %rbp adcxq %rdx, %rcx movq %r10, %rdx MULXq %r8, %r12, %r10 adoxq %r12, %rcx adcxq %r10, %rbp MULXq %r9, %r12, %r10 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r9, %r14, %r8 adcxq %r14, %r10 adoxq %r11, %r10 adcxq %r11, %r8 adoxq %r11, %r8 MULXq %rdx, %r15, %r14 movq %r9, %rdx MULXq %rdx, %rdx, %r9 adcxq %rax, %rax adoxq %rbx, %rax adcxq %rsi, %rsi adoxq %r13, %rsi adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r10, %r10 adoxq %r14, %r10 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %r11, %r9 adoxq %r11, %r9 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %rax MULXq %r10, %rbx, %r10 adoxq %rbx, %rax adcxq %r10, %rsi MULXq %r8, %r10, %r8 adoxq %r10, %rsi adcxq %r8, %rcx MULXq %r9, %r8, %rdx adoxq %r8, %rcx adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %r11, %rax adcq %r11, %rsi adcq %r11, %rcx sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi movl $2, %edx Ljade_scalarmult_curve25519_amd64_mulx$8: movl %edx, 344(%rsp) xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %rax, %r9, %r8 MULXq %rsi, %rbp, %r10 adcxq %rbp, %r8 MULXq %rcx, %rdx, %rbp adcxq %rdx, %r10 movq %rax, %rdx MULXq %rsi, %r12, %rax adoxq %r12, %r10 adcxq %rax, %rbp MULXq %rcx, %r12, %rax adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rsi, %rdx MULXq %rcx, %r14, %rsi adcxq %r14, %rax adoxq %r11, %rax adcxq %r11, %rsi adoxq %r11, %rsi MULXq %rdx, %r15, %r14 movq %rcx, %rdx MULXq %rdx, %rdx, %rcx adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %r8, %r8 adoxq %r13, %r8 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rax, %rax adoxq %r14, %rax adcxq %rsi, %rsi adoxq %rdx, %rsi adcxq %r11, %rcx adoxq %r11, %rcx movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %r9 MULXq %rax, %rbx, %rax adoxq %rbx, %r9 adcxq %rax, %r8 MULXq %rsi, %rsi, %rax adoxq %rsi, %r8 adcxq %rax, %r10 MULXq %rcx, %rcx, %rax adoxq %rcx, %r10 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rdi adcq %r11, %r9 adcq %r11, %r8 adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %r9, %rax, %rsi MULXq %r8, %rbp, %rcx adcxq %rbp, %rsi MULXq %r10, %rdx, %rbp adcxq %rdx, %rcx movq %r9, %rdx MULXq %r8, %r12, %r9 adoxq %r12, %rcx adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r10, %r14, %r8 adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %r8 adoxq %r11, %r8 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rax, %rax adoxq %rbx, %rax adcxq %rsi, %rsi adoxq %r13, %rsi adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %rax MULXq %r9, %rbx, %r9 adoxq %rbx, %rax adcxq %r9, %rsi MULXq %r8, %r9, %r8 adoxq %r9, %rsi adcxq %r8, %rcx MULXq %r10, %r8, %rdx adoxq %r8, %rcx adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %r11, %rax adcq %r11, %rsi adcq %r11, %rcx sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi movl 344(%rsp), %edx decl %edx jne Ljade_scalarmult_curve25519_amd64_mulx$8 xorq %rbx, %rbx movq 120(%rsp), %rdx MULXq %rdi, %r8, %r11 MULXq %rax, %r10, %r9 adcxq %r10, %r11 MULXq %rsi, %rbp, %r10 adcxq %rbp, %r9 MULXq %rcx, %rdx, %rbp adcxq %rdx, %r10 adcxq %rbx, %rbp movq 128(%rsp), %rdx MULXq %rdi, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %r9 MULXq %rax, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r10 MULXq %rsi, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %rbp MULXq %rcx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 136(%rsp), %rdx MULXq %rdi, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %r10 MULXq %rax, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %rbp MULXq %rsi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rcx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 144(%rsp), %rdx MULXq %rdi, %r14, %rdi adoxq %r14, %r10 adcxq %rdi, %rbp MULXq %rax, %rdi, %rax adoxq %rdi, %rbp adcxq %rax, %r12 MULXq %rsi, %rsi, %rax adoxq %rsi, %r12 adcxq %rax, %r13 MULXq %rcx, %rcx, %rax adoxq %rcx, %r13 adcxq %rbx, %rax adoxq %rbx, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r11 MULXq %r12, %rsi, %rcx adoxq %rsi, %r11 adcxq %rcx, %r9 MULXq %r13, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %rbx, %rax adoxq %rbx, %rax imulq $38, %rax, %rax addq %rax, %r8 adcq %rbx, %r11 adcq %rbx, %r9 adcq %rbx, %r10 sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %r8 movq %r8, 120(%rsp) movq %r11, 128(%rsp) movq %r9, 136(%rsp) movq %r10, 144(%rsp) movl $5, %eax Ljade_scalarmult_curve25519_amd64_mulx$7: movl %eax, 344(%rsp) xorq %rdi, %rdi movq %r8, %rdx MULXq %rdx, %r8, %rbx MULXq %r11, %rcx, %rax MULXq %r9, %rbp, %rsi adcxq %rbp, %rax MULXq %r10, %rdx, %rbp adcxq %rdx, %rsi movq %r11, %rdx MULXq %r9, %r12, %r11 adoxq %r12, %rsi adcxq %r11, %rbp MULXq %r10, %r12, %r11 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r9, %rdx MULXq %r10, %r14, %r9 adcxq %r14, %r11 adoxq %rdi, %r11 adcxq %rdi, %r9 adoxq %rdi, %r9 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rax, %rax adoxq %r13, %rax adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r9, %r9 adoxq %rdx, %r9 adcxq %rdi, %r10 adoxq %rdi, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r8 adcxq %rbx, %rcx MULXq %r11, %rbx, %r11 adoxq %rbx, %rcx adcxq %r11, %rax MULXq %r9, %r11, %r9 adoxq %r11, %rax adcxq %r9, %rsi MULXq %r10, %r9, %rdx adoxq %r9, %rsi adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %r8 adcq %rdi, %rcx adcq %rdi, %rax adcq %rdi, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r8 xorq %rdi, %rdi movq %r8, %rdx MULXq %rdx, %r8, %rbx MULXq %rcx, %r11, %r9 MULXq %rax, %rbp, %r10 adcxq %rbp, %r9 MULXq %rsi, %rdx, %rbp adcxq %rdx, %r10 movq %rcx, %rdx MULXq %rax, %r12, %rcx adoxq %r12, %r10 adcxq %rcx, %rbp MULXq %rsi, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %rcx adoxq %rdi, %rcx adcxq %rdi, %rax adoxq %rdi, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r11, %r11 adoxq %rbx, %r11 adcxq %r9, %r9 adoxq %r13, %r9 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rax, %rax adoxq %rdx, %rax adcxq %rdi, %rsi adoxq %rdi, %rsi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r8 adcxq %rbx, %r11 MULXq %rcx, %rbx, %rcx adoxq %rbx, %r11 adcxq %rcx, %r9 MULXq %rax, %rcx, %rax adoxq %rcx, %r9 adcxq %rax, %r10 MULXq %rsi, %rcx, %rax adoxq %rcx, %r10 adcxq %rdi, %rax adoxq %rdi, %rax imulq $38, %rax, %rax addq %rax, %r8 adcq %rdi, %r11 adcq %rdi, %r9 adcq %rdi, %r10 sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r8 movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx$7 xorq %rbx, %rbx movq 120(%rsp), %rdx MULXq %r8, %rax, %rcx MULXq %r11, %rsi, %rdi adcxq %rsi, %rcx MULXq %r9, %rbp, %rsi adcxq %rbp, %rdi MULXq %r10, %rdx, %rbp adcxq %rdx, %rsi adcxq %rbx, %rbp movq 128(%rsp), %rdx MULXq %r8, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r11, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %rsi MULXq %r9, %r13, %r12 adoxq %r13, %rsi adcxq %r12, %rbp MULXq %r10, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 136(%rsp), %rdx MULXq %r8, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %rsi MULXq %r11, %r14, %r13 adoxq %r14, %rsi adcxq %r13, %rbp MULXq %r9, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r10, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 144(%rsp), %rdx MULXq %r8, %r14, %r8 adoxq %r14, %rsi adcxq %r8, %rbp MULXq %r11, %r11, %r8 adoxq %r11, %rbp adcxq %r8, %r12 MULXq %r9, %r9, %r8 adoxq %r9, %r12 adcxq %r8, %r13 MULXq %r10, %rdx, %r8 adoxq %rdx, %r13 adcxq %rbx, %r8 adoxq %rbx, %r8 movq $38, %rdx MULXq %rbp, %r10, %r9 adoxq %r10, %rax adcxq %r9, %rcx MULXq %r12, %r10, %r9 adoxq %r10, %rcx adcxq %r9, %rdi MULXq %r13, %r10, %r9 adoxq %r10, %rdi adcxq %r9, %rsi MULXq %r8, %r8, %rdx adoxq %r8, %rsi adcxq %rbx, %rdx adoxq %rbx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %rbx, %rcx adcq %rbx, %rdi adcq %rbx, %rsi sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %rax movq %rax, 152(%rsp) movq %rcx, 160(%rsp) movq %rdi, 168(%rsp) movq %rsi, 176(%rsp) movl $10, %edx Ljade_scalarmult_curve25519_amd64_mulx$6: movl %edx, 344(%rsp) xorq %r11, %r11 movq %rax, %rdx MULXq %rdx, %rax, %rbx MULXq %rcx, %r9, %r8 MULXq %rdi, %rbp, %r10 adcxq %rbp, %r8 MULXq %rsi, %rdx, %rbp adcxq %rdx, %r10 movq %rcx, %rdx MULXq %rdi, %r12, %rcx adoxq %r12, %r10 adcxq %rcx, %rbp MULXq %rsi, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rdi, %rdx MULXq %rsi, %r14, %rdi adcxq %r14, %rcx adoxq %r11, %rcx adcxq %r11, %rdi adoxq %r11, %rdi MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %r8, %r8 adoxq %r13, %r8 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rdi, %rdi adoxq %rdx, %rdi adcxq %r11, %rsi adoxq %r11, %rsi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rax adcxq %rbx, %r9 MULXq %rcx, %rbx, %rcx adoxq %rbx, %r9 adcxq %rcx, %r8 MULXq %rdi, %rdi, %rcx adoxq %rdi, %r8 adcxq %rcx, %r10 MULXq %rsi, %rdx, %rcx adoxq %rdx, %r10 adcxq %r11, %rcx adoxq %r11, %rcx imulq $38, %rcx, %rcx addq %rcx, %rax adcq %r11, %r9 adcq %r11, %r8 adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rax xorq %r11, %r11 movq %rax, %rdx MULXq %rdx, %rax, %rbx MULXq %r9, %rcx, %rdi MULXq %r8, %rbp, %rsi adcxq %rbp, %rdi MULXq %r10, %rdx, %rbp adcxq %rdx, %rsi movq %r9, %rdx MULXq %r8, %r12, %r9 adoxq %r12, %rsi adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r10, %r14, %r8 adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %r8 adoxq %r11, %r8 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rdi, %rdi adoxq %r13, %rdi adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rax adcxq %rbx, %rcx MULXq %r9, %rbx, %r9 adoxq %rbx, %rcx adcxq %r9, %rdi MULXq %r8, %r9, %r8 adoxq %r9, %rdi adcxq %r8, %rsi MULXq %r10, %r8, %rdx adoxq %r8, %rsi adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %r11, %rcx adcq %r11, %rdi adcq %r11, %rsi sbbq %r11, %r11 andq $38, %r11 addq %r11, %rax movl 344(%rsp), %edx decl %edx jne Ljade_scalarmult_curve25519_amd64_mulx$6 xorq %rbx, %rbx movq 152(%rsp), %rdx MULXq %rax, %r11, %r9 MULXq %rcx, %r10, %r8 adcxq %r10, %r9 MULXq %rdi, %rbp, %r10 adcxq %rbp, %r8 MULXq %rsi, %rdx, %rbp adcxq %rdx, %r10 adcxq %rbx, %rbp movq 160(%rsp), %rdx MULXq %rax, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r8 MULXq %rcx, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r10 MULXq %rdi, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %rbp MULXq %rsi, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 168(%rsp), %rdx MULXq %rax, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %r10 MULXq %rcx, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %rbp MULXq %rdi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rsi, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 176(%rsp), %rdx MULXq %rax, %r14, %rax adoxq %r14, %r10 adcxq %rax, %rbp MULXq %rcx, %rcx, %rax adoxq %rcx, %rbp adcxq %rax, %r12 MULXq %rdi, %rcx, %rax adoxq %rcx, %r12 adcxq %rax, %r13 MULXq %rsi, %rcx, %rax adoxq %rcx, %r13 adcxq %rbx, %rax adoxq %rbx, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %r11 adcxq %rcx, %r9 MULXq %r12, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r8 MULXq %r13, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %rbx, %rax adoxq %rbx, %rax imulq $38, %rax, %rax addq %rax, %r11 adcq %rbx, %r9 adcq %rbx, %r8 adcq %rbx, %r10 sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %r11 movl $5, %eax Ljade_scalarmult_curve25519_amd64_mulx$5: movl %eax, 344(%rsp) xorq %rdi, %rdi movq %r11, %rdx MULXq %rdx, %r11, %rbx MULXq %r9, %rcx, %rax MULXq %r8, %rbp, %rsi adcxq %rbp, %rax MULXq %r10, %rdx, %rbp adcxq %rdx, %rsi movq %r9, %rdx MULXq %r8, %r12, %r9 adoxq %r12, %rsi adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r10, %r14, %r8 adcxq %r14, %r9 adoxq %rdi, %r9 adcxq %rdi, %r8 adoxq %rdi, %r8 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rax, %rax adoxq %r13, %rax adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %rdi, %r10 adoxq %rdi, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r11 adcxq %rbx, %rcx MULXq %r9, %rbx, %r9 adoxq %rbx, %rcx adcxq %r9, %rax MULXq %r8, %r9, %r8 adoxq %r9, %rax adcxq %r8, %rsi MULXq %r10, %r8, %rdx adoxq %r8, %rsi adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %r11 adcq %rdi, %rcx adcq %rdi, %rax adcq %rdi, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r11 xorq %rdi, %rdi movq %r11, %rdx MULXq %rdx, %r11, %rbx MULXq %rcx, %r9, %r8 MULXq %rax, %rbp, %r10 adcxq %rbp, %r8 MULXq %rsi, %rdx, %rbp adcxq %rdx, %r10 movq %rcx, %rdx MULXq %rax, %r12, %rcx adoxq %r12, %r10 adcxq %rcx, %rbp MULXq %rsi, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %rcx adoxq %rdi, %rcx adcxq %rdi, %rax adoxq %rdi, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %r8, %r8 adoxq %r13, %r8 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rax, %rax adoxq %rdx, %rax adcxq %rdi, %rsi adoxq %rdi, %rsi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r11 adcxq %rbx, %r9 MULXq %rcx, %rbx, %rcx adoxq %rbx, %r9 adcxq %rcx, %r8 MULXq %rax, %rcx, %rax adoxq %rcx, %r8 adcxq %rax, %r10 MULXq %rsi, %rcx, %rax adoxq %rcx, %r10 adcxq %rdi, %rax adoxq %rdi, %rax imulq $38, %rax, %rax addq %rax, %r11 adcq %rdi, %r9 adcq %rdi, %r8 adcq %rdi, %r10 sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r11 movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx$5 xorq %rbx, %rbx movq 120(%rsp), %rdx MULXq %r11, %rsi, %rax MULXq %r9, %rcx, %rdi adcxq %rcx, %rax MULXq %r8, %rbp, %rcx adcxq %rbp, %rdi MULXq %r10, %rdx, %rbp adcxq %rdx, %rcx adcxq %rbx, %rbp movq 128(%rsp), %rdx MULXq %r11, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rdi MULXq %r9, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %rcx MULXq %r8, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rbp MULXq %r10, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 136(%rsp), %rdx MULXq %r11, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %rcx MULXq %r9, %r14, %r13 adoxq %r14, %rcx adcxq %r13, %rbp MULXq %r8, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r10, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 144(%rsp), %rdx MULXq %r11, %r14, %r11 adoxq %r14, %rcx adcxq %r11, %rbp MULXq %r9, %r11, %r9 adoxq %r11, %rbp adcxq %r9, %r12 MULXq %r8, %r9, %r8 adoxq %r9, %r12 adcxq %r8, %r13 MULXq %r10, %rdx, %r8 adoxq %rdx, %r13 adcxq %rbx, %r8 adoxq %rbx, %r8 movq $38, %rdx MULXq %rbp, %r10, %r9 adoxq %r10, %rsi adcxq %r9, %rax MULXq %r12, %r10, %r9 adoxq %r10, %rax adcxq %r9, %rdi MULXq %r13, %r10, %r9 adoxq %r10, %rdi adcxq %r9, %rcx MULXq %r8, %r8, %rdx adoxq %r8, %rcx adcxq %rbx, %rdx adoxq %rbx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rbx, %rax adcq %rbx, %rdi adcq %rbx, %rcx sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %rsi movq %rsi, 120(%rsp) movq %rax, 128(%rsp) movq %rdi, 136(%rsp) movq %rcx, 144(%rsp) movl $25, %edx Ljade_scalarmult_curve25519_amd64_mulx$4: movl %edx, 344(%rsp) xorq %r11, %r11 movq %rsi, %rdx MULXq %rdx, %rsi, %rbx MULXq %rax, %r9, %r8 MULXq %rdi, %rbp, %r10 adcxq %rbp, %r8 MULXq %rcx, %rdx, %rbp adcxq %rdx, %r10 movq %rax, %rdx MULXq %rdi, %r12, %rax adoxq %r12, %r10 adcxq %rax, %rbp MULXq %rcx, %r12, %rax adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rdi, %rdx MULXq %rcx, %r14, %rdi adcxq %r14, %rax adoxq %r11, %rax adcxq %r11, %rdi adoxq %r11, %rdi MULXq %rdx, %r15, %r14 movq %rcx, %rdx MULXq %rdx, %rdx, %rcx adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %r8, %r8 adoxq %r13, %r8 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rax, %rax adoxq %r14, %rax adcxq %rdi, %rdi adoxq %rdx, %rdi adcxq %r11, %rcx adoxq %r11, %rcx movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rsi adcxq %rbx, %r9 MULXq %rax, %rbx, %rax adoxq %rbx, %r9 adcxq %rax, %r8 MULXq %rdi, %rdi, %rax adoxq %rdi, %r8 adcxq %rax, %r10 MULXq %rcx, %rcx, %rax adoxq %rcx, %r10 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rsi adcq %r11, %r9 adcq %r11, %r8 adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rsi xorq %r11, %r11 movq %rsi, %rdx MULXq %rdx, %rsi, %rbx MULXq %r9, %rax, %rdi MULXq %r8, %rbp, %rcx adcxq %rbp, %rdi MULXq %r10, %rdx, %rbp adcxq %rdx, %rcx movq %r9, %rdx MULXq %r8, %r12, %r9 adoxq %r12, %rcx adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r10, %r14, %r8 adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %r8 adoxq %r11, %r8 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rax, %rax adoxq %rbx, %rax adcxq %rdi, %rdi adoxq %r13, %rdi adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rsi adcxq %rbx, %rax MULXq %r9, %rbx, %r9 adoxq %rbx, %rax adcxq %r9, %rdi MULXq %r8, %r9, %r8 adoxq %r9, %rdi adcxq %r8, %rcx MULXq %r10, %r8, %rdx adoxq %r8, %rcx adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %r11, %rax adcq %r11, %rdi adcq %r11, %rcx sbbq %r11, %r11 andq $38, %r11 addq %r11, %rsi movl 344(%rsp), %edx decl %edx jne Ljade_scalarmult_curve25519_amd64_mulx$4 xorq %r11, %r11 movq 120(%rsp), %rdx MULXq %rsi, %rbp, %r9 MULXq %rax, %r8, %r10 adcxq %r8, %r9 MULXq %rdi, %rbx, %r8 adcxq %rbx, %r10 MULXq %rcx, %rdx, %rbx adcxq %rdx, %r8 adcxq %r11, %rbx movq 128(%rsp), %rdx MULXq %rsi, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r10 MULXq %rax, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %r8 MULXq %rdi, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbx MULXq %rcx, %rdx, %r12 adoxq %rdx, %rbx adcxq %r11, %r12 adoxq %r11, %r12 movq 136(%rsp), %rdx MULXq %rsi, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %r8 MULXq %rax, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbx MULXq %rdi, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %r12 MULXq %rcx, %rdx, %r13 adoxq %rdx, %r12 adcxq %r11, %r13 adoxq %r11, %r13 movq 144(%rsp), %rdx MULXq %rsi, %r14, %rsi adoxq %r14, %r8 adcxq %rsi, %rbx MULXq %rax, %rsi, %rax adoxq %rsi, %rbx adcxq %rax, %r12 MULXq %rdi, %rsi, %rax adoxq %rsi, %r12 adcxq %rax, %r13 MULXq %rcx, %rcx, %rax adoxq %rcx, %r13 adcxq %r11, %rax adoxq %r11, %rax movq $38, %rdx MULXq %rbx, %rsi, %rcx adoxq %rsi, %rbp adcxq %rcx, %r9 MULXq %r12, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r10 MULXq %r13, %rsi, %rcx adoxq %rsi, %r10 adcxq %rcx, %r8 MULXq %rax, %rcx, %rax adoxq %rcx, %r8 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rbp adcq %r11, %r9 adcq %r11, %r10 adcq %r11, %r8 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rbp movq %rbp, 152(%rsp) movq %r9, 160(%rsp) movq %r10, 168(%rsp) movq %r8, 176(%rsp) movl $50, %eax Ljade_scalarmult_curve25519_amd64_mulx$3: movl %eax, 344(%rsp) xorq %rdi, %rdi movq %rbp, %rdx MULXq %rdx, %r11, %rbx MULXq %r9, %rcx, %rax MULXq %r10, %rbp, %rsi adcxq %rbp, %rax MULXq %r8, %rdx, %rbp adcxq %rdx, %rsi movq %r9, %rdx MULXq %r10, %r12, %r9 adoxq %r12, %rsi adcxq %r9, %rbp MULXq %r8, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r10, %rdx MULXq %r8, %r14, %r10 adcxq %r14, %r9 adoxq %rdi, %r9 adcxq %rdi, %r10 adoxq %rdi, %r10 MULXq %rdx, %r15, %r14 movq %r8, %rdx MULXq %rdx, %rdx, %r8 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rax, %rax adoxq %r13, %rax adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r10, %r10 adoxq %rdx, %r10 adcxq %rdi, %r8 adoxq %rdi, %r8 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r11 adcxq %rbx, %rcx MULXq %r9, %rbx, %r9 adoxq %rbx, %rcx adcxq %r9, %rax MULXq %r10, %r10, %r9 adoxq %r10, %rax adcxq %r9, %rsi MULXq %r8, %r8, %rdx adoxq %r8, %rsi adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %r11 adcq %rdi, %rcx adcq %rdi, %rax adcq %rdi, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r11 xorq %rdi, %rdi movq %r11, %rdx MULXq %rdx, %rbp, %r11 MULXq %rcx, %r9, %r10 MULXq %rax, %rbx, %r8 adcxq %rbx, %r10 MULXq %rsi, %rdx, %rbx adcxq %rdx, %r8 movq %rcx, %rdx MULXq %rax, %r12, %rcx adoxq %r12, %r8 adcxq %rcx, %rbx MULXq %rsi, %r12, %rcx adoxq %r12, %rbx MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %rcx adoxq %rdi, %rcx adcxq %rdi, %rax adoxq %rdi, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r9, %r9 adoxq %r11, %r9 adcxq %r10, %r10 adoxq %r13, %r10 adcxq %r8, %r8 adoxq %r12, %r8 adcxq %rbx, %rbx adoxq %r15, %rbx adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rax, %rax adoxq %rdx, %rax adcxq %rdi, %rsi adoxq %rdi, %rsi movq $38, %rdx MULXq %rbx, %rbx, %r11 adoxq %rbx, %rbp adcxq %r11, %r9 MULXq %rcx, %r11, %rcx adoxq %r11, %r9 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %rax, %r8 MULXq %rsi, %rcx, %rax adoxq %rcx, %r8 adcxq %rdi, %rax adoxq %rdi, %rax imulq $38, %rax, %rax addq %rax, %rbp adcq %rdi, %r9 adcq %rdi, %r10 adcq %rdi, %r8 sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rbp movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx$3 xorq %rcx, %rcx movq 152(%rsp), %rdx MULXq %rbp, %rbx, %r12 MULXq %r9, %rsi, %rax adcxq %rsi, %r12 MULXq %r10, %rsi, %r11 adcxq %rsi, %rax MULXq %r8, %rdx, %rsi adcxq %rdx, %r11 adcxq %rcx, %rsi movq 160(%rsp), %rdx MULXq %rbp, %r13, %rdi adoxq %r13, %r12 adcxq %rdi, %rax MULXq %r9, %r13, %rdi adoxq %r13, %rax adcxq %rdi, %r11 MULXq %r10, %r13, %rdi adoxq %r13, %r11 adcxq %rdi, %rsi MULXq %r8, %rdx, %rdi adoxq %rdx, %rsi adcxq %rcx, %rdi adoxq %rcx, %rdi movq 168(%rsp), %rdx MULXq %rbp, %r14, %r13 adoxq %r14, %rax adcxq %r13, %r11 MULXq %r9, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rsi MULXq %r10, %r14, %r13 adoxq %r14, %rsi adcxq %r13, %rdi MULXq %r8, %rdx, %r13 adoxq %rdx, %rdi adcxq %rcx, %r13 adoxq %rcx, %r13 movq 176(%rsp), %rdx MULXq %rbp, %r14, %rbp adoxq %r14, %r11 adcxq %rbp, %rsi MULXq %r9, %rbp, %r9 adoxq %rbp, %rsi adcxq %r9, %rdi MULXq %r10, %r10, %r9 adoxq %r10, %rdi adcxq %r9, %r13 MULXq %r8, %rdx, %r8 adoxq %rdx, %r13 adcxq %rcx, %r8 adoxq %rcx, %r8 movq $38, %rdx MULXq %rsi, %r9, %rsi adoxq %r9, %rbx adcxq %rsi, %r12 MULXq %rdi, %rdi, %rsi adoxq %rdi, %r12 adcxq %rsi, %rax MULXq %r13, %rdi, %rsi adoxq %rdi, %rax adcxq %rsi, %r11 MULXq %r8, %rsi, %rdx adoxq %rsi, %r11 adcxq %rcx, %rdx adoxq %rcx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rbx adcq %rcx, %r12 adcq %rcx, %rax adcq %rcx, %r11 sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rbx movl $25, %ecx Ljade_scalarmult_curve25519_amd64_mulx$2: movl %ecx, 344(%rsp) xorq %r8, %r8 movq %rbx, %rdx MULXq %rdx, %r9, %r10 MULXq %r12, %rsi, %rcx MULXq %rax, %rbx, %rdi adcxq %rbx, %rcx MULXq %r11, %rdx, %rbx adcxq %rdx, %rdi movq %r12, %rdx MULXq %rax, %r12, %rbp adoxq %r12, %rdi adcxq %rbp, %rbx MULXq %r11, %r12, %rbp adoxq %r12, %rbx MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %r11, %r14, %rax adcxq %r14, %rbp adoxq %r8, %rbp adcxq %r8, %rax adoxq %r8, %rax MULXq %rdx, %r15, %r14 movq %r11, %rdx MULXq %rdx, %rdx, %r11 adcxq %rsi, %rsi adoxq %r10, %rsi adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %rbx, %rbx adoxq %r15, %rbx adcxq %rbp, %rbp adoxq %r14, %rbp adcxq %rax, %rax adoxq %rdx, %rax adcxq %r8, %r11 adoxq %r8, %r11 movq $38, %rdx MULXq %rbx, %rbx, %r10 adoxq %rbx, %r9 adcxq %r10, %rsi MULXq %rbp, %rbx, %r10 adoxq %rbx, %rsi adcxq %r10, %rcx MULXq %rax, %r10, %rax adoxq %r10, %rcx adcxq %rax, %rdi MULXq %r11, %rdx, %rax adoxq %rdx, %rdi adcxq %r8, %rax adoxq %r8, %rax imulq $38, %rax, %rax addq %rax, %r9 adcq %r8, %rsi adcq %r8, %rcx adcq %r8, %rdi sbbq %r8, %r8 andq $38, %r8 addq %r8, %r9 xorq %r8, %r8 movq %r9, %rdx MULXq %rdx, %rbx, %r9 MULXq %rsi, %r12, %rax MULXq %rcx, %r10, %r11 adcxq %r10, %rax MULXq %rdi, %rdx, %r10 adcxq %rdx, %r11 movq %rsi, %rdx MULXq %rcx, %rbp, %rsi adoxq %rbp, %r11 adcxq %rsi, %r10 MULXq %rdi, %rbp, %rsi adoxq %rbp, %r10 MULXq %rdx, %r13, %rbp movq %rcx, %rdx MULXq %rdi, %r14, %rcx adcxq %r14, %rsi adoxq %r8, %rsi adcxq %r8, %rcx adoxq %r8, %rcx MULXq %rdx, %r15, %r14 movq %rdi, %rdx MULXq %rdx, %rdx, %rdi adcxq %r12, %r12 adoxq %r9, %r12 adcxq %rax, %rax adoxq %r13, %rax adcxq %r11, %r11 adoxq %rbp, %r11 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %rsi, %rsi adoxq %r14, %rsi adcxq %rcx, %rcx adoxq %rdx, %rcx adcxq %r8, %rdi adoxq %r8, %rdi movq $38, %rdx MULXq %r10, %r10, %r9 adoxq %r10, %rbx adcxq %r9, %r12 MULXq %rsi, %r9, %rsi adoxq %r9, %r12 adcxq %rsi, %rax MULXq %rcx, %rsi, %rcx adoxq %rsi, %rax adcxq %rcx, %r11 MULXq %rdi, %rdx, %rcx adoxq %rdx, %r11 adcxq %r8, %rcx adoxq %r8, %rcx imulq $38, %rcx, %rcx addq %rcx, %rbx adcq %r8, %r12 adcq %r8, %rax adcq %r8, %r11 sbbq %r8, %r8 andq $38, %r8 addq %r8, %rbx movl 344(%rsp), %ecx decl %ecx jne Ljade_scalarmult_curve25519_amd64_mulx$2 xorq %r9, %r9 movq 120(%rsp), %rdx MULXq %rbx, %r8, %rsi MULXq %r12, %rdi, %rcx adcxq %rdi, %rsi MULXq %rax, %r10, %rdi adcxq %r10, %rcx MULXq %r11, %rdx, %r10 adcxq %rdx, %rdi adcxq %r9, %r10 movq 128(%rsp), %rdx MULXq %rbx, %r13, %rbp adoxq %r13, %rsi adcxq %rbp, %rcx MULXq %r12, %r13, %rbp adoxq %r13, %rcx adcxq %rbp, %rdi MULXq %rax, %r13, %rbp adoxq %r13, %rdi adcxq %rbp, %r10 MULXq %r11, %rdx, %rbp adoxq %rdx, %r10 adcxq %r9, %rbp adoxq %r9, %rbp movq 136(%rsp), %rdx MULXq %rbx, %r14, %r13 adoxq %r14, %rcx adcxq %r13, %rdi MULXq %r12, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r10 MULXq %rax, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %rbp MULXq %r11, %rdx, %r13 adoxq %rdx, %rbp adcxq %r9, %r13 adoxq %r9, %r13 movq 144(%rsp), %rdx MULXq %rbx, %r14, %rbx adoxq %r14, %rdi adcxq %rbx, %r10 MULXq %r12, %r12, %rbx adoxq %r12, %r10 adcxq %rbx, %rbp MULXq %rax, %rbx, %rax adoxq %rbx, %rbp adcxq %rax, %r13 MULXq %r11, %rdx, %rax adoxq %rdx, %r13 adcxq %r9, %rax adoxq %r9, %rax movq $38, %rdx MULXq %r10, %r11, %r10 adoxq %r11, %r8 adcxq %r10, %rsi MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r13, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %rax, %rdx, %rax adoxq %rdx, %rdi adcxq %r9, %rax adoxq %r9, %rax imulq $38, %rax, %rax addq %rax, %r8 adcq %r9, %rsi adcq %r9, %rcx adcq %r9, %rdi sbbq %r9, %r9 andq $38, %r9 addq %r9, %r8 movl $2, %eax Ljade_scalarmult_curve25519_amd64_mulx$1: movl %eax, 344(%rsp) xorq %r11, %r11 movq %r8, %rdx MULXq %rdx, %r8, %rbx MULXq %rsi, %r9, %rax MULXq %rcx, %rbp, %r10 adcxq %rbp, %rax MULXq %rdi, %rdx, %rbp adcxq %rdx, %r10 movq %rsi, %rdx MULXq %rcx, %r12, %rsi adoxq %r12, %r10 adcxq %rsi, %rbp MULXq %rdi, %r12, %rsi adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rcx, %rdx MULXq %rdi, %r14, %rcx adcxq %r14, %rsi adoxq %r11, %rsi adcxq %r11, %rcx adoxq %r11, %rcx MULXq %rdx, %r15, %r14 movq %rdi, %rdx MULXq %rdx, %rdx, %rdi adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %rax, %rax adoxq %r13, %rax adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rsi, %rsi adoxq %r14, %rsi adcxq %rcx, %rcx adoxq %rdx, %rcx adcxq %r11, %rdi adoxq %r11, %rdi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r8 adcxq %rbx, %r9 MULXq %rsi, %rbx, %rsi adoxq %rbx, %r9 adcxq %rsi, %rax MULXq %rcx, %rsi, %rcx adoxq %rsi, %rax adcxq %rcx, %r10 MULXq %rdi, %rdx, %rcx adoxq %rdx, %r10 adcxq %r11, %rcx adoxq %r11, %rcx imulq $38, %rcx, %rcx addq %rcx, %r8 adcq %r11, %r9 adcq %r11, %rax adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %r8 xorq %r11, %r11 movq %r8, %rdx MULXq %rdx, %r8, %rbx MULXq %r9, %rsi, %rcx MULXq %rax, %rbp, %rdi adcxq %rbp, %rcx MULXq %r10, %rdx, %rbp adcxq %rdx, %rdi movq %r9, %rdx MULXq %rax, %r12, %r9 adoxq %r12, %rdi adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %r10, %r14, %rax adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %rax adoxq %r11, %rax MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rsi, %rsi adoxq %rbx, %rsi adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %rax, %rax adoxq %rdx, %rax adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r8 adcxq %rbx, %rsi MULXq %r9, %rbx, %r9 adoxq %rbx, %rsi adcxq %r9, %rcx MULXq %rax, %r9, %rax adoxq %r9, %rcx adcxq %rax, %rdi MULXq %r10, %rdx, %rax adoxq %rdx, %rdi adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %r8 adcq %r11, %rsi adcq %r11, %rcx adcq %r11, %rdi sbbq %r11, %r11 andq $38, %r11 addq %r11, %r8 movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx$1 xorq %r9, %r9 movq %r8, %rdx MULXq %rdx, %rax, %rbx MULXq %rsi, %r10, %r11 MULXq %rcx, %rbp, %r8 adcxq %rbp, %r11 MULXq %rdi, %rdx, %rbp adcxq %rdx, %r8 movq %rsi, %rdx MULXq %rcx, %r12, %rsi adoxq %r12, %r8 adcxq %rsi, %rbp MULXq %rdi, %r12, %rsi adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rcx, %rdx MULXq %rdi, %r14, %rcx adcxq %r14, %rsi adoxq %r9, %rsi adcxq %r9, %rcx adoxq %r9, %rcx MULXq %rdx, %r15, %r14 movq %rdi, %rdx MULXq %rdx, %rdx, %rdi adcxq %r10, %r10 adoxq %rbx, %r10 adcxq %r11, %r11 adoxq %r13, %r11 adcxq %r8, %r8 adoxq %r12, %r8 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rsi, %rsi adoxq %r14, %rsi adcxq %rcx, %rcx adoxq %rdx, %rcx adcxq %r9, %rdi adoxq %r9, %rdi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rax adcxq %rbx, %r10 MULXq %rsi, %rbx, %rsi adoxq %rbx, %r10 adcxq %rsi, %r11 MULXq %rcx, %rsi, %rcx adoxq %rsi, %r11 adcxq %rcx, %r8 MULXq %rdi, %rdx, %rcx adoxq %rdx, %r8 adcxq %r9, %rcx adoxq %r9, %rcx imulq $38, %rcx, %rcx addq %rcx, %rax adcq %r9, %r10 adcq %r9, %r11 adcq %r9, %r8 sbbq %r9, %r9 andq $38, %r9 addq %r9, %rax xorq %rbx, %rbx movq 88(%rsp), %rdx MULXq %rax, %rsi, %rcx MULXq %r10, %r9, %rdi adcxq %r9, %rcx MULXq %r11, %rbp, %r9 adcxq %rbp, %rdi MULXq %r8, %rdx, %rbp adcxq %rdx, %r9 adcxq %rbx, %rbp movq 96(%rsp), %rdx MULXq %rax, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r9 MULXq %r11, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %rbp MULXq %r8, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 104(%rsp), %rdx MULXq %rax, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r9 MULXq %r10, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r8, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 112(%rsp), %rdx MULXq %rax, %r14, %rax adoxq %r14, %r9 adcxq %rax, %rbp MULXq %r10, %r10, %rax adoxq %r10, %rbp adcxq %rax, %r12 MULXq %r11, %r10, %rax adoxq %r10, %r12 adcxq %rax, %r13 MULXq %r8, %rdx, %rax adoxq %rdx, %r13 adcxq %rbx, %rax adoxq %rbx, %rax movq $38, %rdx MULXq %rbp, %r10, %r8 adoxq %r10, %rsi adcxq %r8, %rcx MULXq %r12, %r10, %r8 adoxq %r10, %rcx adcxq %r8, %rdi MULXq %r13, %r10, %r8 adoxq %r10, %rdi adcxq %r8, %r9 MULXq %rax, %rdx, %rax adoxq %rdx, %r9 adcxq %rbx, %rax adoxq %rbx, %rax imulq $38, %rax, %rax addq %rax, %rsi adcq %rbx, %rcx adcq %rbx, %rdi adcq %rbx, %r9 sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %rsi xorq %rax, %rax movq 56(%rsp), %rdx MULXq %rsi, %r10, %r8 MULXq %rcx, %rbx, %r11 adcxq %rbx, %r8 MULXq %rdi, %rbp, %rbx adcxq %rbp, %r11 MULXq %r9, %rdx, %rbp adcxq %rdx, %rbx adcxq %rax, %rbp movq 64(%rsp), %rdx MULXq %rsi, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r11 MULXq %rcx, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbx MULXq %rdi, %r13, %r12 adoxq %r13, %rbx adcxq %r12, %rbp MULXq %r9, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 72(%rsp), %rdx MULXq %rsi, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rbx MULXq %rcx, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %rbp MULXq %rdi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r9, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 80(%rsp), %rdx MULXq %rsi, %r14, %rsi adoxq %r14, %rbx adcxq %rsi, %rbp MULXq %rcx, %rsi, %rcx adoxq %rsi, %rbp adcxq %rcx, %r12 MULXq %rdi, %rsi, %rcx adoxq %rsi, %r12 adcxq %rcx, %r13 MULXq %r9, %rdx, %rcx adoxq %rdx, %r13 adcxq %rax, %rcx adoxq %rax, %rcx movq $38, %rdx MULXq %rbp, %rdi, %rsi adoxq %rdi, %r10 adcxq %rsi, %r8 MULXq %r12, %rdi, %rsi adoxq %rdi, %r8 adcxq %rsi, %r11 MULXq %r13, %rdi, %rsi adoxq %rdi, %r11 adcxq %rsi, %rbx MULXq %rcx, %rdx, %rcx adoxq %rdx, %rbx adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %r10 adcq %rax, %r8 adcq %rax, %r11 adcq %rax, %rbx sbbq %rax, %rax andq $38, %rax addq %rax, %r10 leaq (%rbx,%rbx), %rax sarq $63, %rbx shrq $1, %rax andq $19, %rbx addq $19, %rbx addq %rbx, %r10 adcq $0, %r8 adcq $0, %r11 adcq $0, %rax leaq (%rax,%rax), %rcx sarq $63, %rax shrq $1, %rcx notq %rax andq $19, %rax subq %rax, %r10 sbbq $0, %r8 sbbq $0, %r11 sbbq $0, %rcx movq (%rsp), %rax movq %r10, (%rax) movq %r8, 8(%rax) movq %r11, 16(%rax) movq %rcx, 24(%rax) xorq %rax, %rax movq 352(%rsp), %rbx movq 360(%rsp), %rbp movq 368(%rsp), %r12 movq 376(%rsp), %r13 movq 384(%rsp), %r14 movq 392(%rsp), %r15 movq 400(%rsp), %rsp ret
usenix-security-verdict/verdict
31,349
deps/libcrux/sys/libjade/jazz/sha3_512_ref.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_512_amd64_ref .globl jade_hash_sha3_512_amd64_ref _jade_hash_sha3_512_amd64_ref: jade_hash_sha3_512_amd64_ref: movq %rsp, %rax leaq -48(%rsp), %rsp andq $-8, %rsp movq %rax, 40(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq %r14, 32(%rsp) movq $64, %rcx movb $6, %r8b movq $72, %rax leaq -448(%rsp), %rsp call L_keccak1600_ref$1 Ljade_hash_sha3_512_amd64_ref$1: leaq 448(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %r14 movq 40(%rsp), %rsp ret L_keccak1600_ref$1: movq %rdi, 8(%rsp) movq %rcx, 16(%rsp) movb %r8b, 448(%rsp) xorq %rcx, %rcx movq %rcx, 48(%rsp) movq %rcx, 56(%rsp) movq %rcx, 64(%rsp) movq %rcx, 72(%rsp) movq %rcx, 80(%rsp) movq %rcx, 88(%rsp) movq %rcx, 96(%rsp) movq %rcx, 104(%rsp) movq %rcx, 112(%rsp) movq %rcx, 120(%rsp) movq %rcx, 128(%rsp) movq %rcx, 136(%rsp) movq %rcx, 144(%rsp) movq %rcx, 152(%rsp) movq %rcx, 160(%rsp) movq %rcx, 168(%rsp) movq %rcx, 176(%rsp) movq %rcx, 184(%rsp) movq %rcx, 192(%rsp) movq %rcx, 200(%rsp) movq %rcx, 208(%rsp) movq %rcx, 216(%rsp) movq %rcx, 224(%rsp) movq %rcx, 232(%rsp) movq %rcx, 240(%rsp) jmp L_keccak1600_ref$16 L_keccak1600_ref$17: movq %rax, %rcx shrq $3, %rcx movq $0, %rdi jmp L_keccak1600_ref$19 L_keccak1600_ref$20: movq (%rsi,%rdi,8), %r8 xorq %r8, 48(%rsp,%rdi,8) incq %rdi L_keccak1600_ref$19: cmpq %rcx, %rdi jb L_keccak1600_ref$20 addq %rax, %rsi subq %rax, %rdx movq %rsi, 24(%rsp) movq %rdx, 32(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$18: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$18 movq 24(%rsp), %rsi movq 32(%rsp), %rdx movq 40(%rsp), %rax L_keccak1600_ref$16: cmpq %rax, %rdx jnb L_keccak1600_ref$17 movb 448(%rsp), %cl movq %rdx, %rdi shrq $3, %rdi movq $0, %r8 jmp L_keccak1600_ref$14 L_keccak1600_ref$15: movq (%rsi,%r8,8), %r9 xorq %r9, 48(%rsp,%r8,8) incq %r8 L_keccak1600_ref$14: cmpq %rdi, %r8 jb L_keccak1600_ref$15 shlq $3, %r8 jmp L_keccak1600_ref$12 L_keccak1600_ref$13: movb (%rsi,%r8), %dil xorb %dil, 48(%rsp,%r8) incq %r8 L_keccak1600_ref$12: cmpq %rdx, %r8 jb L_keccak1600_ref$13 xorb %cl, 48(%rsp,%r8) movq %rax, %rcx addq $-1, %rcx xorb $-128, 48(%rsp,%rcx) movq 16(%rsp), %rdx jmp L_keccak1600_ref$7 L_keccak1600_ref$8: movq %rdx, 16(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$11: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$11 movq 8(%rsp), %rcx movq 16(%rsp), %rdx movq 40(%rsp), %rax movq %rax, %rsi shrq $3, %rsi movq $0, %rdi jmp L_keccak1600_ref$9 L_keccak1600_ref$10: movq 48(%rsp,%rdi,8), %r8 movq %r8, (%rcx,%rdi,8) incq %rdi L_keccak1600_ref$9: cmpq %rsi, %rdi jb L_keccak1600_ref$10 addq %rax, %rcx subq %rax, %rdx movq %rcx, 8(%rsp) L_keccak1600_ref$7: cmpq %rax, %rdx jnbe L_keccak1600_ref$8 movq %rdx, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$6: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$6 movq 8(%rsp), %rax movq 40(%rsp), %rcx movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_ref$4 L_keccak1600_ref$5: movq 48(%rsp,%rsi,8), %rdi movq %rdi, (%rax,%rsi,8) incq %rsi L_keccak1600_ref$4: cmpq %rdx, %rsi jb L_keccak1600_ref$5 shlq $3, %rsi jmp L_keccak1600_ref$2 L_keccak1600_ref$3: movb 48(%rsp,%rsi), %dl movb %dl, (%rax,%rsi) incq %rsi L_keccak1600_ref$2: cmpq %rcx, %rsi jb L_keccak1600_ref$3 ret .data .p2align 5 _glob_data: glob_data: .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128
usenix-security-verdict/verdict
6,042
deps/libcrux/sys/libjade/jazz/poly1305_ref.s
.att_syntax .text .p2align 5 .globl _jade_onetimeauth_poly1305_amd64_ref_verify .globl jade_onetimeauth_poly1305_amd64_ref_verify .globl _jade_onetimeauth_poly1305_amd64_ref .globl jade_onetimeauth_poly1305_amd64_ref _jade_onetimeauth_poly1305_amd64_ref_verify: jade_onetimeauth_poly1305_amd64_ref_verify: movq %rsp, %rax leaq -56(%rsp), %rsp andq $-8, %rsp movq %rax, 48(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq %r14, 32(%rsp) movq %r15, 40(%rsp) movq %rdx, %r11 movq %rcx, %r8 movq $0, %r15 movq $0, %rbp movq $0, %r12 movq (%r8), %r9 movq 8(%r8), %r14 movq $1152921487695413247, %rax andq %rax, %r9 movq $1152921487695413244, %rax andq %rax, %r14 movq %r14, %r13 shrq $2, %r13 addq %r14, %r13 addq $16, %r8 jmp Ljade_onetimeauth_poly1305_amd64_ref_verify$2 Ljade_onetimeauth_poly1305_amd64_ref_verify$3: addq (%rsi), %r15 adcq 8(%rsi), %rbp adcq $1, %r12 movq %r13, %rcx imulq %r12, %rcx imulq %r9, %r12 movq %r9, %rax mulq %r15 movq %rax, %rbx movq %rdx, %r10 movq %r9, %rax mulq %rbp addq %rax, %r10 adcq %rdx, %r12 movq %r13, %rax mulq %rbp movq %rdx, %rbp addq %rcx, %rbp movq %rax, %rcx movq %r14, %rax mulq %r15 addq %rcx, %rbx adcq %rax, %r10 adcq %rdx, %r12 movq $-4, %r15 movq %r12, %rax shrq $2, %rax andq %r12, %r15 addq %rax, %r15 andq $3, %r12 addq %rbx, %r15 adcq %r10, %rbp adcq $0, %r12 addq $16, %rsi addq $-16, %r11 Ljade_onetimeauth_poly1305_amd64_ref_verify$2: cmpq $16, %r11 jnb Ljade_onetimeauth_poly1305_amd64_ref_verify$3 cmpq $0, %r11 jbe Ljade_onetimeauth_poly1305_amd64_ref_verify$1 xorq %rcx, %rcx movq %r11, %rax andq $7, %rax shlq $3, %rax shrq $3, %r11 movq %r11, %rdx xorq $1, %rdx movq %r11, %r10 addq $-1, %r10 movq %rax, %rbx andq %r10, %rbx xorq %rbx, %rcx xorq %rbx, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r11 movq %rdx, %rax movq %r11, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r11, %rax addq %r10, %r15 adcq %rax, %rbp adcq $0, %r12 movq %r13, %rsi imulq %r12, %rsi imulq %r9, %r12 movq %r9, %rax mulq %r15 movq %rax, %rcx movq %rdx, %r10 movq %r9, %rax mulq %rbp addq %rax, %r10 adcq %rdx, %r12 movq %r13, %rax mulq %rbp movq %rdx, %rbp addq %rsi, %rbp movq %rax, %rsi movq %r14, %rax mulq %r15 addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %r12 movq $-4, %r15 movq %r12, %rax shrq $2, %rax andq %r12, %r15 addq %rax, %r15 andq $3, %r12 addq %rcx, %r15 adcq %r10, %rbp adcq $0, %r12 Ljade_onetimeauth_poly1305_amd64_ref_verify$1: movq %r15, %rax movq %rbp, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r12 shrq $2, %r12 negq %r12 xorq %r15, %rax xorq %rbp, %rcx andq %r12, %rax andq %r12, %rcx xorq %r15, %rax xorq %rbp, %rcx movq (%r8), %rdx movq 8(%r8), %rsi addq %rdx, %rax adcq %rsi, %rcx movq %rax, %rdx xorq (%rdi), %rdx xorq 8(%rdi), %rcx orq %rcx, %rdx xorq %rax, %rax subq $1, %rdx adcq $0, %rax addq $-1, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %r14 movq 40(%rsp), %r15 movq 48(%rsp), %rsp ret _jade_onetimeauth_poly1305_amd64_ref: jade_onetimeauth_poly1305_amd64_ref: movq %rsp, %rax leaq -56(%rsp), %rsp andq $-8, %rsp movq %rax, 48(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq %r14, 32(%rsp) movq %r15, 40(%rsp) movq %rdx, %rbx movq %rcx, %r9 movq $0, %r15 movq $0, %r8 movq $0, %r14 movq (%r9), %r12 movq 8(%r9), %r13 movq $1152921487695413247, %rax andq %rax, %r12 movq $1152921487695413244, %rax andq %rax, %r13 movq %r13, %rbp shrq $2, %rbp addq %r13, %rbp addq $16, %r9 jmp Ljade_onetimeauth_poly1305_amd64_ref$2 Ljade_onetimeauth_poly1305_amd64_ref$3: addq (%rsi), %r15 adcq 8(%rsi), %r8 adcq $1, %r14 movq %rbp, %rcx imulq %r14, %rcx imulq %r12, %r14 movq %r12, %rax mulq %r15 movq %rax, %r11 movq %rdx, %r10 movq %r12, %rax mulq %r8 addq %rax, %r10 adcq %rdx, %r14 movq %rbp, %rax mulq %r8 movq %rdx, %r8 addq %rcx, %r8 movq %rax, %rcx movq %r13, %rax mulq %r15 addq %rcx, %r11 adcq %rax, %r10 adcq %rdx, %r14 movq $-4, %r15 movq %r14, %rax shrq $2, %rax andq %r14, %r15 addq %rax, %r15 andq $3, %r14 addq %r11, %r15 adcq %r10, %r8 adcq $0, %r14 addq $16, %rsi addq $-16, %rbx Ljade_onetimeauth_poly1305_amd64_ref$2: cmpq $16, %rbx jnb Ljade_onetimeauth_poly1305_amd64_ref$3 cmpq $0, %rbx jbe Ljade_onetimeauth_poly1305_amd64_ref$1 xorq %rcx, %rcx movq %rbx, %rax andq $7, %rax shlq $3, %rax shrq $3, %rbx movq %rbx, %rdx xorq $1, %rdx movq %rbx, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %rbx movq %rdx, %rax movq %rbx, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %rbx, %rax addq %r10, %r15 adcq %rax, %r8 adcq $0, %r14 movq %rbp, %rsi imulq %r14, %rsi imulq %r12, %r14 movq %r12, %rax mulq %r15 movq %rax, %rcx movq %rdx, %r10 movq %r12, %rax mulq %r8 addq %rax, %r10 adcq %rdx, %r14 movq %rbp, %rax mulq %r8 movq %rdx, %r8 addq %rsi, %r8 movq %rax, %rsi movq %r13, %rax mulq %r15 addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %r14 movq $-4, %r15 movq %r14, %rax shrq $2, %rax andq %r14, %r15 addq %rax, %r15 andq $3, %r14 addq %rcx, %r15 adcq %r10, %r8 adcq $0, %r14 Ljade_onetimeauth_poly1305_amd64_ref$1: movq %r15, %rax movq %r8, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r14 shrq $2, %r14 negq %r14 xorq %r15, %rax xorq %r8, %rcx andq %r14, %rax andq %r14, %rcx xorq %r15, %rax xorq %r8, %rcx movq (%r9), %rdx movq 8(%r9), %rsi addq %rdx, %rax adcq %rsi, %rcx movq %rax, (%rdi) movq %rcx, 8(%rdi) xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %r14 movq 40(%rsp), %r15 movq 48(%rsp), %rsp ret
usenix-security-verdict/verdict
46,736
deps/libcrux/sys/libjade/jazz/sha256.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha256_amd64_ref .globl jade_hash_sha256_amd64_ref _jade_hash_sha256_amd64_ref: jade_hash_sha256_amd64_ref: movq %rsp, %rax leaq -232(%rsp), %rsp andq $-8, %rsp movq %rax, 224(%rsp) movq %rbx, 176(%rsp) movq %rbp, 184(%rsp) movq %r12, 192(%rsp) movq %r13, 200(%rsp) movq %r14, 208(%rsp) movq %r15, 216(%rsp) movq %rdi, (%rsp) movq %rdx, %rax shlq $3, %rax movq %rax, 8(%rsp) movl $1779033703, 16(%rsp) movl $-1150833019, 20(%rsp) movl $1013904242, 24(%rsp) movl $-1521486534, 28(%rsp) movl $1359893119, 32(%rsp) movl $-1694144372, 36(%rsp) movl $528734635, 40(%rsp) movl $1541459225, 44(%rsp) leaq 16(%rsp), %rdi leaq -272(%rsp), %rsp leaq Ljade_hash_sha256_amd64_ref$12(%rip), %rcx jmp L_blocks_0_ref$1 Ljade_hash_sha256_amd64_ref$12: leaq 272(%rsp), %rsp movq 8(%rsp), %rcx movq $0, %rdi jmp Ljade_hash_sha256_amd64_ref$10 Ljade_hash_sha256_amd64_ref$11: movb (%rsi,%rdi), %al movb %al, 48(%rsp,%rdi) incq %rdi Ljade_hash_sha256_amd64_ref$10: cmpq %rdx, %rdi jb Ljade_hash_sha256_amd64_ref$11 movb $-128, 48(%rsp,%rdi) incq %rdi cmpq $56, %rdx jb Ljade_hash_sha256_amd64_ref$8 movq $120, %rdx movq $2, %rax jmp Ljade_hash_sha256_amd64_ref$9 Ljade_hash_sha256_amd64_ref$8: movq $56, %rdx movq $1, %rax Ljade_hash_sha256_amd64_ref$9: movb $0, %sil jmp Ljade_hash_sha256_amd64_ref$6 Ljade_hash_sha256_amd64_ref$7: movb %sil, 48(%rsp,%rdi) incq %rdi Ljade_hash_sha256_amd64_ref$6: cmpq %rdx, %rdi jb Ljade_hash_sha256_amd64_ref$7 addq $7, %rdi jmp Ljade_hash_sha256_amd64_ref$4 Ljade_hash_sha256_amd64_ref$5: movb %cl, 48(%rsp,%rdi) shrq $8, %rcx addq $-1, %rdi Ljade_hash_sha256_amd64_ref$4: cmpq %rdx, %rdi jnb Ljade_hash_sha256_amd64_ref$5 addq $9, %rdi jmp Ljade_hash_sha256_amd64_ref$2 Ljade_hash_sha256_amd64_ref$3: movb %sil, 48(%rsp,%rdi) incq %rdi Ljade_hash_sha256_amd64_ref$2: cmpq $128, %rdi jb Ljade_hash_sha256_amd64_ref$3 leaq 48(%rsp), %r8 leaq -280(%rsp), %rsp leaq Ljade_hash_sha256_amd64_ref$1(%rip), %rdx jmp L_blocks_1_ref$1 Ljade_hash_sha256_amd64_ref$1: leaq 280(%rsp), %rsp movq (%rsp), %rax movl 16(%rsp), %ecx bswapl %ecx movl %ecx, (%rax) movl 20(%rsp), %ecx bswapl %ecx movl %ecx, 4(%rax) movl 24(%rsp), %ecx bswapl %ecx movl %ecx, 8(%rax) movl 28(%rsp), %ecx bswapl %ecx movl %ecx, 12(%rax) movl 32(%rsp), %ecx bswapl %ecx movl %ecx, 16(%rax) movl 36(%rsp), %ecx bswapl %ecx movl %ecx, 20(%rax) movl 40(%rsp), %ecx bswapl %ecx movl %ecx, 24(%rax) movl 44(%rsp), %ecx bswapl %ecx movl %ecx, 28(%rax) xorq %rax, %rax movq 176(%rsp), %rbx movq 184(%rsp), %rbp movq 192(%rsp), %r12 movq 200(%rsp), %r13 movq 208(%rsp), %r14 movq 216(%rsp), %r15 movq 224(%rsp), %rsp ret L_blocks_1_ref$1: leaq glob_data + 0(%rip), %rcx movq %r9, (%rsp) movq $0, %rsi movq (%rsp), %rdi jmp L_blocks_1_ref$2 L_blocks_1_ref$3: movl (%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 24(%rsp) movl 4(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 28(%rsp) movl 8(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 32(%rsp) movl 12(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 36(%rsp) movl 16(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 40(%rsp) movl 20(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 44(%rsp) movl 24(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 48(%rsp) movl 28(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 52(%rsp) movl 32(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 56(%rsp) movl 36(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 60(%rsp) movl 40(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 64(%rsp) movl 44(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 68(%rsp) movl 48(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 72(%rsp) movl 52(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 76(%rsp) movl 56(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 80(%rsp) movl 60(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 84(%rsp) addq $16, %rsi movq %rsi, (%rsp) movq %r8, 8(%rsp) movl 80(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 60(%rsp), %r8d movl 28(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 24(%rsp), %r8d movl %r8d, 88(%rsp) movl 84(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 64(%rsp), %r8d movl 32(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 28(%rsp), %r8d movl %r8d, 92(%rsp) movl 88(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 68(%rsp), %r8d movl 36(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 32(%rsp), %r8d movl %r8d, 96(%rsp) movl 92(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 72(%rsp), %r8d movl 40(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 36(%rsp), %r8d movl %r8d, 100(%rsp) movl 96(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 76(%rsp), %r8d movl 44(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 40(%rsp), %r8d movl %r8d, 104(%rsp) movl 100(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 80(%rsp), %r8d movl 48(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 44(%rsp), %r8d movl %r8d, 108(%rsp) movl 104(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 84(%rsp), %r8d movl 52(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 48(%rsp), %r8d movl %r8d, 112(%rsp) movl 108(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 88(%rsp), %r8d movl 56(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 52(%rsp), %r8d movl %r8d, 116(%rsp) movl 112(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 92(%rsp), %r8d movl 60(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 56(%rsp), %r8d movl %r8d, 120(%rsp) movl 116(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 96(%rsp), %r8d movl 64(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 60(%rsp), %r8d movl %r8d, 124(%rsp) movl 120(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 100(%rsp), %r8d movl 68(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 64(%rsp), %r8d movl %r8d, 128(%rsp) movl 124(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 104(%rsp), %r8d movl 72(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 68(%rsp), %r8d movl %r8d, 132(%rsp) movl 128(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 108(%rsp), %r8d movl 76(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 72(%rsp), %r8d movl %r8d, 136(%rsp) movl 132(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 112(%rsp), %r8d movl 80(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 76(%rsp), %r8d movl %r8d, 140(%rsp) movl 136(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 116(%rsp), %r8d movl 84(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 80(%rsp), %r8d movl %r8d, 144(%rsp) movl 140(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 120(%rsp), %r8d movl 88(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 84(%rsp), %r8d movl %r8d, 148(%rsp) movl 144(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 124(%rsp), %r8d movl 92(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 88(%rsp), %r8d movl %r8d, 152(%rsp) movl 148(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 128(%rsp), %r8d movl 96(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 92(%rsp), %r8d movl %r8d, 156(%rsp) movl 152(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 132(%rsp), %r8d movl 100(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 96(%rsp), %r8d movl %r8d, 160(%rsp) movl 156(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 136(%rsp), %r8d movl 104(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 100(%rsp), %r8d movl %r8d, 164(%rsp) movl 160(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 140(%rsp), %r8d movl 108(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 104(%rsp), %r8d movl %r8d, 168(%rsp) movl 164(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 144(%rsp), %r8d movl 112(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 108(%rsp), %r8d movl %r8d, 172(%rsp) movl 168(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 148(%rsp), %r8d movl 116(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 112(%rsp), %r8d movl %r8d, 176(%rsp) movl 172(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 152(%rsp), %r8d movl 120(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 116(%rsp), %r8d movl %r8d, 180(%rsp) movl 176(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 156(%rsp), %r8d movl 124(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 120(%rsp), %r8d movl %r8d, 184(%rsp) movl 180(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 160(%rsp), %r8d movl 128(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 124(%rsp), %r8d movl %r8d, 188(%rsp) movl 184(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 164(%rsp), %r8d movl 132(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 128(%rsp), %r8d movl %r8d, 192(%rsp) movl 188(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 168(%rsp), %r8d movl 136(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 132(%rsp), %r8d movl %r8d, 196(%rsp) movl 192(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 172(%rsp), %r8d movl 140(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 136(%rsp), %r8d movl %r8d, 200(%rsp) movl 196(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 176(%rsp), %r8d movl 144(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 140(%rsp), %r8d movl %r8d, 204(%rsp) movl 200(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 180(%rsp), %r8d movl 148(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 144(%rsp), %r8d movl %r8d, 208(%rsp) movl 204(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 184(%rsp), %r8d movl 152(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 148(%rsp), %r8d movl %r8d, 212(%rsp) movl 208(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 188(%rsp), %r8d movl 156(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 152(%rsp), %r8d movl %r8d, 216(%rsp) movl 212(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 192(%rsp), %r8d movl 160(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 156(%rsp), %r8d movl %r8d, 220(%rsp) movl 216(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 196(%rsp), %r8d movl 164(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 160(%rsp), %r8d movl %r8d, 224(%rsp) movl 220(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 200(%rsp), %r8d movl 168(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 164(%rsp), %r8d movl %r8d, 228(%rsp) movl 224(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 204(%rsp), %r8d movl 172(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 168(%rsp), %r8d movl %r8d, 232(%rsp) movl 228(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 208(%rsp), %r8d movl 176(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 172(%rsp), %r8d movl %r8d, 236(%rsp) movl 232(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 212(%rsp), %r8d movl 180(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 176(%rsp), %r8d movl %r8d, 240(%rsp) movl 236(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 216(%rsp), %r8d movl 184(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 180(%rsp), %r8d movl %r8d, 244(%rsp) movl 240(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 220(%rsp), %r8d movl 188(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 184(%rsp), %r8d movl %r8d, 248(%rsp) movl 244(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 224(%rsp), %r8d movl 192(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 188(%rsp), %r8d movl %r8d, 252(%rsp) movl 248(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 228(%rsp), %r8d movl 196(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 192(%rsp), %r8d movl %r8d, 256(%rsp) movl 252(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 232(%rsp), %r8d movl 200(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 196(%rsp), %r8d movl %r8d, 260(%rsp) movl 256(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 236(%rsp), %r8d movl 204(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 200(%rsp), %r8d movl %r8d, 264(%rsp) movl 260(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 240(%rsp), %r8d movl 208(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 204(%rsp), %r8d movl %r8d, 268(%rsp) movl 264(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 244(%rsp), %r8d movl 212(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 208(%rsp), %r8d movl %r8d, 272(%rsp) movl 268(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 248(%rsp), %r8d movl 216(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 212(%rsp), %r8d movl %r8d, 276(%rsp) movl (%rdi), %r14d movl 4(%rdi), %esi movl 8(%rdi), %r8d movl 12(%rdi), %r9d movl 16(%rdi), %r13d movl 20(%rdi), %r10d movl 24(%rdi), %r11d movl 28(%rdi), %r12d movq %rdi, 16(%rsp) movq $0, %rdi jmp L_blocks_1_ref$4 L_blocks_1_ref$5: movl %r12d, %ebx movl %r13d, %ebp rorl $6, %ebp movl %r13d, %r12d rorl $11, %r12d xorl %r12d, %ebp movl %r13d, %r12d rorl $25, %r12d xorl %r12d, %ebp addl %ebp, %ebx movl %r13d, %ebp andl %r10d, %ebp movl %r13d, %r12d notl %r12d andl %r11d, %r12d xorl %r12d, %ebp addl %ebp, %ebx addl (%rcx,%rdi,4), %ebx addl 24(%rsp,%rdi,4), %ebx movl %r14d, %ebp rorl $2, %ebp movl %r14d, %r12d rorl $13, %r12d xorl %r12d, %ebp movl %r14d, %r12d rorl $22, %r12d xorl %r12d, %ebp movl %r14d, %r12d andl %esi, %r12d movl %r14d, %r15d andl %r8d, %r15d xorl %r15d, %r12d movl %esi, %r15d andl %r8d, %r15d xorl %r15d, %r12d addl %r12d, %ebp movl %r11d, %r12d movl %r10d, %r11d movl %r13d, %r10d movl %r9d, %r13d addl %ebx, %r13d movl %r8d, %r9d movl %esi, %r8d movl %r14d, %esi movl %ebx, %r14d addl %ebp, %r14d incq %rdi L_blocks_1_ref$4: cmpq $64, %rdi jb L_blocks_1_ref$5 movq 16(%rsp), %rdi addl (%rdi), %r14d addl 4(%rdi), %esi addl 8(%rdi), %r8d addl 12(%rdi), %r9d addl 16(%rdi), %r13d addl 20(%rdi), %r10d addl 24(%rdi), %r11d addl 28(%rdi), %r12d movl %r14d, (%rdi) movl %esi, 4(%rdi) movl %r8d, 8(%rdi) movl %r9d, 12(%rdi) movl %r13d, 16(%rdi) movl %r10d, 20(%rdi) movl %r11d, 24(%rdi) movl %r12d, 28(%rdi) movq 8(%rsp), %r8 movq (%rsp), %rsi addq $-1, %rax L_blocks_1_ref$2: cmpq $0, %rax jnbe L_blocks_1_ref$3 jmp *%rdx L_blocks_0_ref$1: leaq glob_data + 0(%rip), %rax movq %rdi, (%rsp) movq (%rsp), %rdi jmp L_blocks_0_ref$2 L_blocks_0_ref$3: movl (%rsi), %r8d bswapl %r8d movl %r8d, 16(%rsp) movl 4(%rsi), %r8d bswapl %r8d movl %r8d, 20(%rsp) movl 8(%rsi), %r8d bswapl %r8d movl %r8d, 24(%rsp) movl 12(%rsi), %r8d bswapl %r8d movl %r8d, 28(%rsp) movl 16(%rsi), %r8d bswapl %r8d movl %r8d, 32(%rsp) movl 20(%rsi), %r8d bswapl %r8d movl %r8d, 36(%rsp) movl 24(%rsi), %r8d bswapl %r8d movl %r8d, 40(%rsp) movl 28(%rsi), %r8d bswapl %r8d movl %r8d, 44(%rsp) movl 32(%rsi), %r8d bswapl %r8d movl %r8d, 48(%rsp) movl 36(%rsi), %r8d bswapl %r8d movl %r8d, 52(%rsp) movl 40(%rsi), %r8d bswapl %r8d movl %r8d, 56(%rsp) movl 44(%rsi), %r8d bswapl %r8d movl %r8d, 60(%rsp) movl 48(%rsi), %r8d bswapl %r8d movl %r8d, 64(%rsp) movl 52(%rsi), %r8d bswapl %r8d movl %r8d, 68(%rsp) movl 56(%rsi), %r8d bswapl %r8d movl %r8d, 72(%rsp) movl 60(%rsi), %r8d bswapl %r8d movl %r8d, 76(%rsp) movq %rsi, (%rsp) movl 72(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 52(%rsp), %r8d movl 20(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 16(%rsp), %r8d movl %r8d, 80(%rsp) movl 76(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 56(%rsp), %r8d movl 24(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 20(%rsp), %r8d movl %r8d, 84(%rsp) movl 80(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 60(%rsp), %r8d movl 28(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 24(%rsp), %r8d movl %r8d, 88(%rsp) movl 84(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 64(%rsp), %r8d movl 32(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 28(%rsp), %r8d movl %r8d, 92(%rsp) movl 88(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 68(%rsp), %r8d movl 36(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 32(%rsp), %r8d movl %r8d, 96(%rsp) movl 92(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 72(%rsp), %r8d movl 40(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 36(%rsp), %r8d movl %r8d, 100(%rsp) movl 96(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 76(%rsp), %r8d movl 44(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 40(%rsp), %r8d movl %r8d, 104(%rsp) movl 100(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 80(%rsp), %r8d movl 48(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 44(%rsp), %r8d movl %r8d, 108(%rsp) movl 104(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 84(%rsp), %r8d movl 52(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 48(%rsp), %r8d movl %r8d, 112(%rsp) movl 108(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 88(%rsp), %r8d movl 56(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 52(%rsp), %r8d movl %r8d, 116(%rsp) movl 112(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 92(%rsp), %r8d movl 60(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 56(%rsp), %r8d movl %r8d, 120(%rsp) movl 116(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 96(%rsp), %r8d movl 64(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 60(%rsp), %r8d movl %r8d, 124(%rsp) movl 120(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 100(%rsp), %r8d movl 68(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 64(%rsp), %r8d movl %r8d, 128(%rsp) movl 124(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 104(%rsp), %r8d movl 72(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 68(%rsp), %r8d movl %r8d, 132(%rsp) movl 128(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 108(%rsp), %r8d movl 76(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 72(%rsp), %r8d movl %r8d, 136(%rsp) movl 132(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 112(%rsp), %r8d movl 80(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 76(%rsp), %r8d movl %r8d, 140(%rsp) movl 136(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 116(%rsp), %r8d movl 84(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 80(%rsp), %r8d movl %r8d, 144(%rsp) movl 140(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 120(%rsp), %r8d movl 88(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 84(%rsp), %r8d movl %r8d, 148(%rsp) movl 144(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 124(%rsp), %r8d movl 92(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 88(%rsp), %r8d movl %r8d, 152(%rsp) movl 148(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 128(%rsp), %r8d movl 96(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 92(%rsp), %r8d movl %r8d, 156(%rsp) movl 152(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 132(%rsp), %r8d movl 100(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 96(%rsp), %r8d movl %r8d, 160(%rsp) movl 156(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 136(%rsp), %r8d movl 104(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 100(%rsp), %r8d movl %r8d, 164(%rsp) movl 160(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 140(%rsp), %r8d movl 108(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 104(%rsp), %r8d movl %r8d, 168(%rsp) movl 164(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 144(%rsp), %r8d movl 112(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 108(%rsp), %r8d movl %r8d, 172(%rsp) movl 168(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 148(%rsp), %r8d movl 116(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 112(%rsp), %r8d movl %r8d, 176(%rsp) movl 172(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 152(%rsp), %r8d movl 120(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 116(%rsp), %r8d movl %r8d, 180(%rsp) movl 176(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 156(%rsp), %r8d movl 124(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 120(%rsp), %r8d movl %r8d, 184(%rsp) movl 180(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 160(%rsp), %r8d movl 128(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 124(%rsp), %r8d movl %r8d, 188(%rsp) movl 184(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 164(%rsp), %r8d movl 132(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 128(%rsp), %r8d movl %r8d, 192(%rsp) movl 188(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 168(%rsp), %r8d movl 136(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 132(%rsp), %r8d movl %r8d, 196(%rsp) movl 192(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 172(%rsp), %r8d movl 140(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 136(%rsp), %r8d movl %r8d, 200(%rsp) movl 196(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 176(%rsp), %r8d movl 144(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 140(%rsp), %r8d movl %r8d, 204(%rsp) movl 200(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 180(%rsp), %r8d movl 148(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 144(%rsp), %r8d movl %r8d, 208(%rsp) movl 204(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 184(%rsp), %r8d movl 152(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 148(%rsp), %r8d movl %r8d, 212(%rsp) movl 208(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 188(%rsp), %r8d movl 156(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 152(%rsp), %r8d movl %r8d, 216(%rsp) movl 212(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 192(%rsp), %r8d movl 160(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 156(%rsp), %r8d movl %r8d, 220(%rsp) movl 216(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 196(%rsp), %r8d movl 164(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 160(%rsp), %r8d movl %r8d, 224(%rsp) movl 220(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 200(%rsp), %r8d movl 168(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 164(%rsp), %r8d movl %r8d, 228(%rsp) movl 224(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 204(%rsp), %r8d movl 172(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 168(%rsp), %r8d movl %r8d, 232(%rsp) movl 228(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 208(%rsp), %r8d movl 176(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 172(%rsp), %r8d movl %r8d, 236(%rsp) movl 232(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 212(%rsp), %r8d movl 180(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 176(%rsp), %r8d movl %r8d, 240(%rsp) movl 236(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 216(%rsp), %r8d movl 184(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 180(%rsp), %r8d movl %r8d, 244(%rsp) movl 240(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 220(%rsp), %r8d movl 188(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 184(%rsp), %r8d movl %r8d, 248(%rsp) movl 244(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 224(%rsp), %r8d movl 192(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 188(%rsp), %r8d movl %r8d, 252(%rsp) movl 248(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 228(%rsp), %r8d movl 196(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 192(%rsp), %r8d movl %r8d, 256(%rsp) movl 252(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 232(%rsp), %r8d movl 200(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 196(%rsp), %r8d movl %r8d, 260(%rsp) movl 256(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 236(%rsp), %r8d movl 204(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 200(%rsp), %r8d movl %r8d, 264(%rsp) movl 260(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 240(%rsp), %r8d movl 208(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 204(%rsp), %r8d movl %r8d, 268(%rsp) movl (%rdi), %r14d movl 4(%rdi), %esi movl 8(%rdi), %r8d movl 12(%rdi), %r9d movl 16(%rdi), %r13d movl 20(%rdi), %r10d movl 24(%rdi), %r11d movl 28(%rdi), %r12d movq %rdi, 8(%rsp) movq $0, %rdi jmp L_blocks_0_ref$4 L_blocks_0_ref$5: movl %r12d, %ebx movl %r13d, %ebp rorl $6, %ebp movl %r13d, %r12d rorl $11, %r12d xorl %r12d, %ebp movl %r13d, %r12d rorl $25, %r12d xorl %r12d, %ebp addl %ebp, %ebx movl %r13d, %ebp andl %r10d, %ebp movl %r13d, %r12d notl %r12d andl %r11d, %r12d xorl %r12d, %ebp addl %ebp, %ebx addl (%rax,%rdi,4), %ebx addl 16(%rsp,%rdi,4), %ebx movl %r14d, %ebp rorl $2, %ebp movl %r14d, %r12d rorl $13, %r12d xorl %r12d, %ebp movl %r14d, %r12d rorl $22, %r12d xorl %r12d, %ebp movl %r14d, %r12d andl %esi, %r12d movl %r14d, %r15d andl %r8d, %r15d xorl %r15d, %r12d movl %esi, %r15d andl %r8d, %r15d xorl %r15d, %r12d addl %r12d, %ebp movl %r11d, %r12d movl %r10d, %r11d movl %r13d, %r10d movl %r9d, %r13d addl %ebx, %r13d movl %r8d, %r9d movl %esi, %r8d movl %r14d, %esi movl %ebx, %r14d addl %ebp, %r14d incq %rdi L_blocks_0_ref$4: cmpq $64, %rdi jb L_blocks_0_ref$5 movq 8(%rsp), %rdi addl (%rdi), %r14d addl 4(%rdi), %esi addl 8(%rdi), %r8d addl 12(%rdi), %r9d addl 16(%rdi), %r13d addl 20(%rdi), %r10d addl 24(%rdi), %r11d addl 28(%rdi), %r12d movl %r14d, (%rdi) movl %esi, 4(%rdi) movl %r8d, 8(%rdi) movl %r9d, 12(%rdi) movl %r13d, 16(%rdi) movl %r10d, 20(%rdi) movl %r11d, 24(%rdi) movl %r12d, 28(%rdi) movq (%rsp), %rsi addq $64, %rsi addq $-64, %rdx L_blocks_0_ref$2: cmpq $64, %rdx jnb L_blocks_0_ref$3 movq %rdi, %r9 jmp *%rcx .data .p2align 5 _glob_data: glob_data: .byte -104 .byte 47 .byte -118 .byte 66 .byte -111 .byte 68 .byte 55 .byte 113 .byte -49 .byte -5 .byte -64 .byte -75 .byte -91 .byte -37 .byte -75 .byte -23 .byte 91 .byte -62 .byte 86 .byte 57 .byte -15 .byte 17 .byte -15 .byte 89 .byte -92 .byte -126 .byte 63 .byte -110 .byte -43 .byte 94 .byte 28 .byte -85 .byte -104 .byte -86 .byte 7 .byte -40 .byte 1 .byte 91 .byte -125 .byte 18 .byte -66 .byte -123 .byte 49 .byte 36 .byte -61 .byte 125 .byte 12 .byte 85 .byte 116 .byte 93 .byte -66 .byte 114 .byte -2 .byte -79 .byte -34 .byte -128 .byte -89 .byte 6 .byte -36 .byte -101 .byte 116 .byte -15 .byte -101 .byte -63 .byte -63 .byte 105 .byte -101 .byte -28 .byte -122 .byte 71 .byte -66 .byte -17 .byte -58 .byte -99 .byte -63 .byte 15 .byte -52 .byte -95 .byte 12 .byte 36 .byte 111 .byte 44 .byte -23 .byte 45 .byte -86 .byte -124 .byte 116 .byte 74 .byte -36 .byte -87 .byte -80 .byte 92 .byte -38 .byte -120 .byte -7 .byte 118 .byte 82 .byte 81 .byte 62 .byte -104 .byte 109 .byte -58 .byte 49 .byte -88 .byte -56 .byte 39 .byte 3 .byte -80 .byte -57 .byte 127 .byte 89 .byte -65 .byte -13 .byte 11 .byte -32 .byte -58 .byte 71 .byte -111 .byte -89 .byte -43 .byte 81 .byte 99 .byte -54 .byte 6 .byte 103 .byte 41 .byte 41 .byte 20 .byte -123 .byte 10 .byte -73 .byte 39 .byte 56 .byte 33 .byte 27 .byte 46 .byte -4 .byte 109 .byte 44 .byte 77 .byte 19 .byte 13 .byte 56 .byte 83 .byte 84 .byte 115 .byte 10 .byte 101 .byte -69 .byte 10 .byte 106 .byte 118 .byte 46 .byte -55 .byte -62 .byte -127 .byte -123 .byte 44 .byte 114 .byte -110 .byte -95 .byte -24 .byte -65 .byte -94 .byte 75 .byte 102 .byte 26 .byte -88 .byte 112 .byte -117 .byte 75 .byte -62 .byte -93 .byte 81 .byte 108 .byte -57 .byte 25 .byte -24 .byte -110 .byte -47 .byte 36 .byte 6 .byte -103 .byte -42 .byte -123 .byte 53 .byte 14 .byte -12 .byte 112 .byte -96 .byte 106 .byte 16 .byte 22 .byte -63 .byte -92 .byte 25 .byte 8 .byte 108 .byte 55 .byte 30 .byte 76 .byte 119 .byte 72 .byte 39 .byte -75 .byte -68 .byte -80 .byte 52 .byte -77 .byte 12 .byte 28 .byte 57 .byte 74 .byte -86 .byte -40 .byte 78 .byte 79 .byte -54 .byte -100 .byte 91 .byte -13 .byte 111 .byte 46 .byte 104 .byte -18 .byte -126 .byte -113 .byte 116 .byte 111 .byte 99 .byte -91 .byte 120 .byte 20 .byte 120 .byte -56 .byte -124 .byte 8 .byte 2 .byte -57 .byte -116 .byte -6 .byte -1 .byte -66 .byte -112 .byte -21 .byte 108 .byte 80 .byte -92 .byte -9 .byte -93 .byte -7 .byte -66 .byte -14 .byte 120 .byte 113 .byte -58
usenix-security-verdict/verdict
34,209
deps/libcrux/sys/libjade/jazz/sha3_256_avx2.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_256_amd64_avx2 .globl jade_hash_sha3_256_amd64_avx2 _jade_hash_sha3_256_amd64_avx2: jade_hash_sha3_256_amd64_avx2: movq %rsp, %rax leaq -40(%rsp), %rsp andq $-32, %rsp movq %rax, 32(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq $32, %r9 movb $6, %al movq $136, %rcx leaq -224(%rsp), %rsp leaq Ljade_hash_sha3_256_amd64_avx2$1(%rip), %r10 jmp L_keccak1600_avx2$1 Ljade_hash_sha3_256_amd64_avx2$1: leaq 224(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %rsp ret L_keccak1600_avx2$1: vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm5, %ymm5, %ymm5 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm2, %ymm2, %ymm2 leaq glob_data + 1152(%rip), %r8 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) jmp L_keccak1600_avx2$16 L_keccak1600_avx2$17: movq %rcx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$19 L_keccak1600_avx2$20: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$19: cmpq %r11, %rbx jb L_keccak1600_avx2$20 movq (%rsp), %r11 movq %r11, 8(%rsp) movq %r11, 16(%rsp) movq %r11, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 addq %rcx, %rsi subq %rcx, %rdx leaq glob_data + 384(%rip), %r11 movq $0, %rbx leaq glob_data + 192(%rip), %rbp leaq glob_data + 0(%rip), %r12 movq $24, %r13 L_keccak1600_avx2$18: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rbp), %ymm4, %ymm7 vpsrlvq (%r12), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rbp), %ymm0, %ymm7 vpsrlvq 64(%r12), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rbp), %ymm5, %ymm7 vpsrlvq 96(%r12), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rbp), %ymm1, %ymm5 vpsrlvq 128(%r12), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rbp), %ymm2, %ymm0 vpsrlvq 160(%r12), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rbp), %ymm0, %ymm1 vpsrlvq 32(%r12), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%r11,%rbx), %ymm6, %ymm6 addq $32, %rbx decq %r13 jne L_keccak1600_avx2$18 L_keccak1600_avx2$16: cmpq %rcx, %rdx jnb L_keccak1600_avx2$17 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) movq %rdx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$14 L_keccak1600_avx2$15: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$14: cmpq %r11, %rbx jb L_keccak1600_avx2$15 movq (%r8,%rbx,8), %r11 shlq $3, %r11 shlq $3, %rbx jmp L_keccak1600_avx2$12 L_keccak1600_avx2$13: movb (%rsi,%rbx), %bpl movb %bpl, (%rsp,%r11) incq %rbx incq %r11 L_keccak1600_avx2$12: cmpq %rdx, %rbx jb L_keccak1600_avx2$13 movb %al, (%rsp,%r11) movq %rcx, %rax addq $-1, %rax shrq $3, %rax movq (%r8,%rax,8), %rax shlq $3, %rax movq %rcx, %rdx addq $-1, %rdx andq $7, %rdx addq %rdx, %rax xorb $-128, (%rsp,%rax) movq (%rsp), %rax movq %rax, 8(%rsp) movq %rax, 16(%rsp) movq %rax, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 leaq glob_data + 1152(%rip), %rax jmp L_keccak1600_avx2$7 L_keccak1600_avx2$8: leaq glob_data + 384(%rip), %rdx movq $0, %rsi leaq glob_data + 192(%rip), %r8 leaq glob_data + 0(%rip), %r11 movq $24, %rbx L_keccak1600_avx2$11: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r8), %ymm4, %ymm7 vpsrlvq (%r11), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%r8), %ymm0, %ymm7 vpsrlvq 64(%r11), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%r8), %ymm5, %ymm7 vpsrlvq 96(%r11), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%r8), %ymm1, %ymm5 vpsrlvq 128(%r11), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%r8), %ymm2, %ymm0 vpsrlvq 160(%r11), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%r8), %ymm0, %ymm1 vpsrlvq 32(%r11), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rdx,%rsi), %ymm6, %ymm6 addq $32, %rsi decq %rbx jne L_keccak1600_avx2$11 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_avx2$9 L_keccak1600_avx2$10: movq (%rax,%rsi,8), %r8 movq (%rsp,%r8,8), %r8 movq %r8, (%rdi,%rsi,8) incq %rsi L_keccak1600_avx2$9: cmpq %rdx, %rsi jb L_keccak1600_avx2$10 addq %rcx, %rdi subq %rcx, %r9 L_keccak1600_avx2$7: cmpq %rcx, %r9 jnbe L_keccak1600_avx2$8 leaq glob_data + 384(%rip), %rcx movq $0, %rdx leaq glob_data + 192(%rip), %rsi leaq glob_data + 0(%rip), %r8 movq $24, %r11 L_keccak1600_avx2$6: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm4, %ymm7 vpsrlvq (%r8), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rsi), %ymm0, %ymm7 vpsrlvq 64(%r8), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rsi), %ymm5, %ymm7 vpsrlvq 96(%r8), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rsi), %ymm1, %ymm5 vpsrlvq 128(%r8), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rsi), %ymm2, %ymm0 vpsrlvq 160(%r8), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rsi), %ymm0, %ymm1 vpsrlvq 32(%r8), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r11 jne L_keccak1600_avx2$6 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %r9, %rcx shrq $3, %rcx movq $0, %rdx jmp L_keccak1600_avx2$4 L_keccak1600_avx2$5: movq (%rax,%rdx,8), %rsi movq (%rsp,%rsi,8), %rsi movq %rsi, (%rdi,%rdx,8) incq %rdx L_keccak1600_avx2$4: cmpq %rcx, %rdx jb L_keccak1600_avx2$5 movq (%rax,%rdx,8), %rax shlq $3, %rdx shlq $3, %rax jmp L_keccak1600_avx2$2 L_keccak1600_avx2$3: movb (%rsp,%rax), %cl movb %cl, (%rdi,%rdx) incq %rdx incq %rax L_keccak1600_avx2$2: cmpq %r9, %rdx jb L_keccak1600_avx2$3 jmp *%r10 .data .p2align 5 _glob_data: glob_data: .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 46 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 63 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 37 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 58 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 54 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 49 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 50 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 41 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 45 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 55 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 24 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 13 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 16 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 22 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 11 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 12 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 26 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 17 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0
usenix-security-verdict/verdict
199,579
deps/libcrux/sys/hacl/c/vale/src/aesgcm-x86_64-linux.S
.text .global aes128_key_expansion aes128_key_expansion: movdqu 0(%rdi), %xmm1 mov %rsi, %rdx movdqu %xmm1, 0(%rdx) aeskeygenassist $1, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 16(%rdx) aeskeygenassist $2, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 32(%rdx) aeskeygenassist $4, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 48(%rdx) aeskeygenassist $8, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 64(%rdx) aeskeygenassist $16, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 80(%rdx) aeskeygenassist $32, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 96(%rdx) aeskeygenassist $64, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 112(%rdx) aeskeygenassist $128, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 128(%rdx) aeskeygenassist $27, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 144(%rdx) aeskeygenassist $54, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 160(%rdx) pxor %xmm1, %xmm1 pxor %xmm2, %xmm2 pxor %xmm3, %xmm3 ret .global aes128_keyhash_init aes128_keyhash_init: mov $579005069656919567, %r8 pinsrq $0, %r8, %xmm4 mov $283686952306183, %r8 pinsrq $1, %r8, %xmm4 pxor %xmm0, %xmm0 movdqu %xmm0, 80(%rsi) mov %rdi, %r8 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm4, %xmm0 mov %rsi, %rcx movdqu %xmm0, 32(%rcx) movdqu %xmm6, %xmm0 mov %r12, %rax movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 0(%rcx) movdqu %xmm6, %xmm1 movdqu %xmm6, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 16(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 48(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 64(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 96(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 112(%rcx) movdqu %xmm0, %xmm6 mov %rax, %r12 ret .global aes256_key_expansion aes256_key_expansion: movdqu 0(%rdi), %xmm1 movdqu 16(%rdi), %xmm3 mov %rsi, %rdx movdqu %xmm1, 0(%rdx) movdqu %xmm3, 16(%rdx) aeskeygenassist $1, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 32(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 48(%rdx) aeskeygenassist $2, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 64(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 80(%rdx) aeskeygenassist $4, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 96(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 112(%rdx) aeskeygenassist $8, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 128(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 144(%rdx) aeskeygenassist $16, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 160(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 176(%rdx) aeskeygenassist $32, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 192(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 208(%rdx) aeskeygenassist $64, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 224(%rdx) pxor %xmm1, %xmm1 pxor %xmm2, %xmm2 pxor %xmm3, %xmm3 pxor %xmm4, %xmm4 ret .global aes256_keyhash_init aes256_keyhash_init: mov $579005069656919567, %r8 pinsrq $0, %r8, %xmm4 mov $283686952306183, %r8 pinsrq $1, %r8, %xmm4 pxor %xmm0, %xmm0 movdqu %xmm0, 80(%rsi) mov %rdi, %r8 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm4, %xmm0 mov %rsi, %rcx movdqu %xmm0, 32(%rcx) movdqu %xmm6, %xmm0 mov %r12, %rax movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 0(%rcx) movdqu %xmm6, %xmm1 movdqu %xmm6, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 16(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 48(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 64(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 96(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 112(%rcx) movdqu %xmm0, %xmm6 mov %rax, %r12 ret .global gctr128_bytes gctr128_bytes: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx movdqu 0(%r9), %xmm7 mov %rdi, %rax mov %rdx, %rbx mov %rcx, %r13 mov 72(%rsp), %rcx mov %rcx, %rbp imul $16, %rbp mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm8 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm8 mov %rcx, %rdx shr $2, %rdx and $3, %rcx cmp $0, %rdx jbe L0 mov %rax, %r9 mov %rbx, %r10 pshufb %xmm8, %xmm7 movdqu %xmm7, %xmm9 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pshufb %xmm0, %xmm9 movdqu %xmm9, %xmm10 pxor %xmm3, %xmm3 mov $1, %rax pinsrd $2, %eax, %xmm3 paddd %xmm3, %xmm9 mov $3, %rax pinsrd $2, %eax, %xmm3 mov $2, %rax pinsrd $0, %eax, %xmm3 paddd %xmm3, %xmm10 pshufb %xmm8, %xmm9 pshufb %xmm8, %xmm10 pextrq $0, %xmm7, %rdi mov $283686952306183, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pxor %xmm15, %xmm15 mov $4, %rax pinsrd $0, %eax, %xmm15 mov $4, %rax pinsrd $2, %eax, %xmm15 jmp L3 .balign 16 L2: pinsrq $0, %rdi, %xmm2 pinsrq $0, %rdi, %xmm12 pinsrq $0, %rdi, %xmm13 pinsrq $0, %rdi, %xmm14 shufpd $2, %xmm9, %xmm2 shufpd $0, %xmm9, %xmm12 shufpd $2, %xmm10, %xmm13 shufpd $0, %xmm10, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 movdqu 0(%r8), %xmm3 movdqu 16(%r8), %xmm4 movdqu 32(%r8), %xmm5 movdqu 48(%r8), %xmm6 paddd %xmm15, %xmm9 paddd %xmm15, %xmm10 pxor %xmm3, %xmm2 pxor %xmm3, %xmm12 pxor %xmm3, %xmm13 pxor %xmm3, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 64(%r8), %xmm3 movdqu 80(%r8), %xmm4 movdqu 96(%r8), %xmm5 movdqu 112(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 128(%r8), %xmm3 movdqu 144(%r8), %xmm4 movdqu 160(%r8), %xmm5 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenclast %xmm5, %xmm2 aesenclast %xmm5, %xmm12 aesenclast %xmm5, %xmm13 aesenclast %xmm5, %xmm14 movdqu 0(%r9), %xmm7 pxor %xmm7, %xmm2 movdqu 16(%r9), %xmm7 pxor %xmm7, %xmm12 movdqu 32(%r9), %xmm7 pxor %xmm7, %xmm13 movdqu 48(%r9), %xmm7 pxor %xmm7, %xmm14 movdqu %xmm2, 0(%r10) movdqu %xmm12, 16(%r10) movdqu %xmm13, 32(%r10) movdqu %xmm14, 48(%r10) sub $1, %rdx add $64, %r9 add $64, %r10 .balign 16 L3: cmp $0, %rdx ja L2 movdqu %xmm9, %xmm7 pinsrq $0, %rdi, %xmm7 pshufb %xmm8, %xmm7 mov %r9, %rax mov %r10, %rbx jmp L1 L0: L1: mov $0, %rdx mov %rax, %r9 mov %rbx, %r10 pxor %xmm4, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 jmp L5 .balign 16 L4: movdqu %xmm7, %xmm0 pshufb %xmm8, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r9), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rdx add $16, %r9 add $16, %r10 paddd %xmm4, %xmm7 .balign 16 L5: cmp %rcx, %rdx jne L4 cmp %rbp, %rsi jbe L6 movdqu 0(%r13), %xmm1 movdqu %xmm7, %xmm0 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm2 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm2 pshufb %xmm2, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm1 movdqu %xmm1, 0(%r13) jmp L7 L6: L7: pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global gctr256_bytes gctr256_bytes: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx movdqu 0(%r9), %xmm7 mov %rdi, %rax mov %rdx, %rbx mov %rcx, %r13 mov 72(%rsp), %rcx mov %rcx, %rbp imul $16, %rbp mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm8 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm8 mov %rcx, %rdx shr $2, %rdx and $3, %rcx cmp $0, %rdx jbe L8 mov %rax, %r9 mov %rbx, %r10 pshufb %xmm8, %xmm7 movdqu %xmm7, %xmm9 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pshufb %xmm0, %xmm9 movdqu %xmm9, %xmm10 pxor %xmm3, %xmm3 mov $1, %rax pinsrd $2, %eax, %xmm3 paddd %xmm3, %xmm9 mov $3, %rax pinsrd $2, %eax, %xmm3 mov $2, %rax pinsrd $0, %eax, %xmm3 paddd %xmm3, %xmm10 pshufb %xmm8, %xmm9 pshufb %xmm8, %xmm10 pextrq $0, %xmm7, %rdi mov $283686952306183, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pxor %xmm15, %xmm15 mov $4, %rax pinsrd $0, %eax, %xmm15 mov $4, %rax pinsrd $2, %eax, %xmm15 jmp L11 .balign 16 L10: pinsrq $0, %rdi, %xmm2 pinsrq $0, %rdi, %xmm12 pinsrq $0, %rdi, %xmm13 pinsrq $0, %rdi, %xmm14 shufpd $2, %xmm9, %xmm2 shufpd $0, %xmm9, %xmm12 shufpd $2, %xmm10, %xmm13 shufpd $0, %xmm10, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 movdqu 0(%r8), %xmm3 movdqu 16(%r8), %xmm4 movdqu 32(%r8), %xmm5 movdqu 48(%r8), %xmm6 paddd %xmm15, %xmm9 paddd %xmm15, %xmm10 pxor %xmm3, %xmm2 pxor %xmm3, %xmm12 pxor %xmm3, %xmm13 pxor %xmm3, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 64(%r8), %xmm3 movdqu 80(%r8), %xmm4 movdqu 96(%r8), %xmm5 movdqu 112(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 128(%r8), %xmm3 movdqu 144(%r8), %xmm4 movdqu 160(%r8), %xmm5 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 movdqu %xmm5, %xmm3 movdqu 176(%r8), %xmm4 movdqu 192(%r8), %xmm5 movdqu 208(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 224(%r8), %xmm5 aesenclast %xmm5, %xmm2 aesenclast %xmm5, %xmm12 aesenclast %xmm5, %xmm13 aesenclast %xmm5, %xmm14 movdqu 0(%r9), %xmm7 pxor %xmm7, %xmm2 movdqu 16(%r9), %xmm7 pxor %xmm7, %xmm12 movdqu 32(%r9), %xmm7 pxor %xmm7, %xmm13 movdqu 48(%r9), %xmm7 pxor %xmm7, %xmm14 movdqu %xmm2, 0(%r10) movdqu %xmm12, 16(%r10) movdqu %xmm13, 32(%r10) movdqu %xmm14, 48(%r10) sub $1, %rdx add $64, %r9 add $64, %r10 .balign 16 L11: cmp $0, %rdx ja L10 movdqu %xmm9, %xmm7 pinsrq $0, %rdi, %xmm7 pshufb %xmm8, %xmm7 mov %r9, %rax mov %r10, %rbx jmp L9 L8: L9: mov $0, %rdx mov %rax, %r9 mov %rbx, %r10 pxor %xmm4, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 jmp L13 .balign 16 L12: movdqu %xmm7, %xmm0 pshufb %xmm8, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r9), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rdx add $16, %r9 add $16, %r10 paddd %xmm4, %xmm7 .balign 16 L13: cmp %rcx, %rdx jne L12 cmp %rbp, %rsi jbe L14 movdqu 0(%r13), %xmm1 movdqu %xmm7, %xmm0 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm2 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm2 pshufb %xmm2, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm1 movdqu %xmm1, 0(%r13) jmp L15 L14: L15: pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global compute_iv_stdcall compute_iv_stdcall: cmp $12, %rsi jne L16 cmp $12, %rsi jne L18 movdqu 0(%r8), %xmm0 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm1 mov $283686952306183, %rax pinsrq $1, %rax, %xmm1 pshufb %xmm1, %xmm0 mov $1, %rax pinsrd $0, %eax, %xmm0 movdqu %xmm0, 0(%rcx) jmp L19 L18: mov %rcx, %rax add $32, %r9 mov %r8, %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L21 .balign 16 L20: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L21: cmp $6, %rdx jae L20 cmp $0, %rdx jbe L22 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L24 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L25 L24: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L26 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L28 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L30 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L31 L30: L31: jmp L29 L28: L29: jmp L27 L26: L27: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L25: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L23 L22: L23: mov %rsi, %r15 cmp %rcx, %rsi jbe L32 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L34 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L35 L34: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L35: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L33 L32: L33: mov %rax, %rcx mov $0, %r11 mov %rsi, %r13 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm8, 0(%rcx) L19: jmp L17 L16: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx cmp $12, %rsi jne L36 movdqu 0(%r8), %xmm0 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm1 mov $283686952306183, %rax pinsrq $1, %rax, %xmm1 pshufb %xmm1, %xmm0 mov $1, %rax pinsrd $0, %eax, %xmm0 movdqu %xmm0, 0(%rcx) jmp L37 L36: mov %rcx, %rax add $32, %r9 mov %r8, %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L39 .balign 16 L38: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L39: cmp $6, %rdx jae L38 cmp $0, %rdx jbe L40 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L42 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L43 L42: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L44 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L46 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L48 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L49 L48: L49: jmp L47 L46: L47: jmp L45 L44: L45: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L43: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L41 L40: L41: mov %rsi, %r15 cmp %rcx, %rsi jbe L50 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L52 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L53 L52: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L53: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L51 L50: L51: mov %rax, %rcx mov $0, %r11 mov %rsi, %r13 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm8, 0(%rcx) L37: pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 L17: ret .global gcm128_encrypt_opt gcm128_encrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L55 .balign 16 L54: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L55: cmp $6, %rdx jae L54 cmp $0, %rdx jbe L56 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L58 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L59 L58: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L60 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L62 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L64 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L65 L64: L65: jmp L63 L62: L63: jmp L61 L60: L61: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L59: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L57 L56: L57: mov %rsi, %r15 cmp %rcx, %rsi jbe L66 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L68 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L69 L68: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L69: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L67 L66: L67: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L70 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L71 L70: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rsi), %r14 movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L72 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L73 L72: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L73: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 movdqu 32(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi vpshufb %xmm0, %xmm9, %xmm8 vpshufb %xmm0, %xmm10, %xmm2 movdqu %xmm8, 112(%rbp) vpshufb %xmm0, %xmm11, %xmm4 movdqu %xmm2, 96(%rbp) vpshufb %xmm0, %xmm12, %xmm5 movdqu %xmm4, 80(%rbp) vpshufb %xmm0, %xmm13, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm14, %xmm7 movdqu %xmm6, 48(%rbp) movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L74 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L75 L74: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L75: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 movdqu 32(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi sub $12, %rdx movdqu 32(%rbp), %xmm8 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) jmp L77 .balign 16 L76: add $6, %rbx cmp $256, %rbx jb L78 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L79 L78: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L79: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx add $96, %r14 cmp $0, %rdx jbe L80 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L81 L80: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L81: .balign 16 L77: cmp $0, %rdx ja L76 movdqu 32(%rbp), %xmm7 movdqu %xmm1, 32(%rbp) pxor %xmm4, %xmm4 movdqu %xmm4, 16(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm0 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm0 movdqu %xmm9, -96(%rsi) vpshufb %xmm0, %xmm9, %xmm9 vpxor %xmm7, %xmm1, %xmm1 movdqu %xmm10, -80(%rsi) vpshufb %xmm0, %xmm10, %xmm10 movdqu %xmm11, -64(%rsi) vpshufb %xmm0, %xmm11, %xmm11 movdqu %xmm12, -48(%rsi) vpshufb %xmm0, %xmm12, %xmm12 movdqu %xmm13, -32(%rsi) vpshufb %xmm0, %xmm13, %xmm13 movdqu %xmm14, -16(%rsi) vpshufb %xmm0, %xmm14, %xmm14 pxor %xmm4, %xmm4 movdqu %xmm14, %xmm7 movdqu %xmm4, 16(%rbp) movdqu %xmm13, 48(%rbp) movdqu %xmm12, 64(%rbp) movdqu %xmm11, 80(%rbp) movdqu %xmm10, 96(%rbp) movdqu %xmm9, 112(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 sub $128, %rcx L71: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L83 .balign 16 L82: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L83: cmp %rdx, %rbx jne L82 mov %rdi, %r11 jmp L85 .balign 16 L84: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L85: cmp $6, %rdx jae L84 cmp $0, %rdx jbe L86 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L88 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L89 L88: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L90 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L92 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L94 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L95 L94: L95: jmp L93 L92: L93: jmp L91 L90: L91: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L89: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L87 L86: L87: add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L96 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%rax), %xmm4 pxor %xmm4, %xmm0 movdqu %xmm0, 0(%rax) cmp $8, %r10 jae L98 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L99 L98: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L99: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L97 L96: L97: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu %xmm8, 0(%r15) pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global gcm256_encrypt_opt gcm256_encrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L101 .balign 16 L100: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L101: cmp $6, %rdx jae L100 cmp $0, %rdx jbe L102 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L104 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L105 L104: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L106 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L108 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L110 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L111 L110: L111: jmp L109 L108: L109: jmp L107 L106: L107: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L105: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L103 L102: L103: mov %rsi, %r15 cmp %rcx, %rsi jbe L112 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L114 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L115 L114: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L115: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L113 L112: L113: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L116 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L117 L116: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rsi), %r14 movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L118 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L119 L118: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L119: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 80(%rcx), %xmm15 movdqu 96(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi vpshufb %xmm0, %xmm9, %xmm8 vpshufb %xmm0, %xmm10, %xmm2 movdqu %xmm8, 112(%rbp) vpshufb %xmm0, %xmm11, %xmm4 movdqu %xmm2, 96(%rbp) vpshufb %xmm0, %xmm12, %xmm5 movdqu %xmm4, 80(%rbp) vpshufb %xmm0, %xmm13, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm14, %xmm7 movdqu %xmm6, 48(%rbp) movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L120 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L121 L120: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L121: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 80(%rcx), %xmm15 movdqu 96(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi sub $12, %rdx movdqu 32(%rbp), %xmm8 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) jmp L123 .balign 16 L122: add $6, %rbx cmp $256, %rbx jb L124 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L125 L124: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L125: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 48(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 64(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 80(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 96(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx add $96, %r14 cmp $0, %rdx jbe L126 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L127 L126: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L127: .balign 16 L123: cmp $0, %rdx ja L122 movdqu 32(%rbp), %xmm7 movdqu %xmm1, 32(%rbp) pxor %xmm4, %xmm4 movdqu %xmm4, 16(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm0 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm0 movdqu %xmm9, -96(%rsi) vpshufb %xmm0, %xmm9, %xmm9 vpxor %xmm7, %xmm1, %xmm1 movdqu %xmm10, -80(%rsi) vpshufb %xmm0, %xmm10, %xmm10 movdqu %xmm11, -64(%rsi) vpshufb %xmm0, %xmm11, %xmm11 movdqu %xmm12, -48(%rsi) vpshufb %xmm0, %xmm12, %xmm12 movdqu %xmm13, -32(%rsi) vpshufb %xmm0, %xmm13, %xmm13 movdqu %xmm14, -16(%rsi) vpshufb %xmm0, %xmm14, %xmm14 pxor %xmm4, %xmm4 movdqu %xmm14, %xmm7 movdqu %xmm4, 16(%rbp) movdqu %xmm13, 48(%rbp) movdqu %xmm12, 64(%rbp) movdqu %xmm11, 80(%rbp) movdqu %xmm10, 96(%rbp) movdqu %xmm9, 112(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 sub $128, %rcx L117: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L129 .balign 16 L128: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L129: cmp %rdx, %rbx jne L128 mov %rdi, %r11 jmp L131 .balign 16 L130: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L131: cmp $6, %rdx jae L130 cmp $0, %rdx jbe L132 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L134 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L135 L134: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L136 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L138 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L140 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L141 L140: L141: jmp L139 L138: L139: jmp L137 L136: L137: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L135: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L133 L132: L133: add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L142 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%rax), %xmm4 pxor %xmm4, %xmm0 movdqu %xmm0, 0(%rax) cmp $8, %r10 jae L144 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L145 L144: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L145: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L143 L142: L143: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu %xmm8, 0(%r15) pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global gcm128_decrypt_opt gcm128_decrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L147 .balign 16 L146: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L147: cmp $6, %rdx jae L146 cmp $0, %rdx jbe L148 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L150 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L151 L150: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L152 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L154 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L156 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L157 L156: L157: jmp L155 L154: L155: jmp L153 L152: L153: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L151: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L149 L148: L149: mov %rsi, %r15 cmp %rcx, %rsi jbe L158 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L160 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L161 L160: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L161: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L159 L158: L159: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L162 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L163 L162: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rdi), %r14 movdqu 32(%rbp), %xmm8 movdqu 80(%rdi), %xmm7 movdqu 64(%rdi), %xmm4 movdqu 48(%rdi), %xmm5 movdqu 32(%rdi), %xmm6 vpshufb %xmm0, %xmm7, %xmm7 movdqu 16(%rdi), %xmm2 vpshufb %xmm0, %xmm4, %xmm4 movdqu 0(%rdi), %xmm3 vpshufb %xmm0, %xmm5, %xmm5 movdqu %xmm4, 48(%rbp) vpshufb %xmm0, %xmm6, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm2, %xmm2 movdqu %xmm6, 80(%rbp) vpshufb %xmm0, %xmm3, %xmm3 movdqu %xmm2, 96(%rbp) movdqu %xmm3, 112(%rbp) pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) cmp $6, %rdx jne L164 sub $96, %r14 jmp L165 L164: L165: jmp L167 .balign 16 L166: add $6, %rbx cmp $256, %rbx jb L168 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L169 L168: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L169: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx cmp $6, %rdx jbe L170 add $96, %r14 jmp L171 L170: L171: cmp $0, %rdx jbe L172 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L173 L172: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L173: .balign 16 L167: cmp $0, %rdx ja L166 movdqu %xmm1, 32(%rbp) movdqu %xmm9, -96(%rsi) movdqu %xmm10, -80(%rsi) movdqu %xmm11, -64(%rsi) movdqu %xmm12, -48(%rsi) movdqu %xmm13, -32(%rsi) movdqu %xmm14, -16(%rsi) sub $128, %rcx L163: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 mov %rdi, %rbx mov %rdx, %r12 mov %rax, %rdi mov %rdi, %r11 jmp L175 .balign 16 L174: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L175: cmp $6, %rdx jae L174 cmp $0, %rdx jbe L176 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L178 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L179 L178: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L180 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L182 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L184 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L185 L184: L185: jmp L183 L182: L183: jmp L181 L180: L181: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L179: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L177 L176: L177: mov %rbx, %rdi mov %r12, %rdx pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L187 .balign 16 L186: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L187: cmp %rdx, %rbx jne L186 add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L188 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu 0(%rax), %xmm0 movdqu %xmm0, %xmm10 cmp $8, %r10 jae L190 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L191 L190: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L191: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm10 movdqu %xmm10, 0(%rax) jmp L189 L188: L189: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu 0(%r15), %xmm0 pcmpeqd %xmm8, %xmm0 pextrq $0, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rax adc $0, %rax pextrq $1, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rdx adc $0, %rdx add %rdx, %rax mov %rax, %rcx pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 mov %rcx, %rax ret .global gcm256_decrypt_opt gcm256_decrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L193 .balign 16 L192: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L193: cmp $6, %rdx jae L192 cmp $0, %rdx jbe L194 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L196 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L197 L196: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L198 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L200 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L202 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L203 L202: L203: jmp L201 L200: L201: jmp L199 L198: L199: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L197: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L195 L194: L195: mov %rsi, %r15 cmp %rcx, %rsi jbe L204 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L206 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L207 L206: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L207: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L205 L204: L205: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L208 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L209 L208: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rdi), %r14 movdqu 32(%rbp), %xmm8 movdqu 80(%rdi), %xmm7 movdqu 64(%rdi), %xmm4 movdqu 48(%rdi), %xmm5 movdqu 32(%rdi), %xmm6 vpshufb %xmm0, %xmm7, %xmm7 movdqu 16(%rdi), %xmm2 vpshufb %xmm0, %xmm4, %xmm4 movdqu 0(%rdi), %xmm3 vpshufb %xmm0, %xmm5, %xmm5 movdqu %xmm4, 48(%rbp) vpshufb %xmm0, %xmm6, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm2, %xmm2 movdqu %xmm6, 80(%rbp) vpshufb %xmm0, %xmm3, %xmm3 movdqu %xmm2, 96(%rbp) movdqu %xmm3, 112(%rbp) pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) cmp $6, %rdx jne L210 sub $96, %r14 jmp L211 L210: L211: jmp L213 .balign 16 L212: add $6, %rbx cmp $256, %rbx jb L214 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L215 L214: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L215: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 48(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 64(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 80(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 96(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx cmp $6, %rdx jbe L216 add $96, %r14 jmp L217 L216: L217: cmp $0, %rdx jbe L218 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L219 L218: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L219: .balign 16 L213: cmp $0, %rdx ja L212 movdqu %xmm1, 32(%rbp) movdqu %xmm9, -96(%rsi) movdqu %xmm10, -80(%rsi) movdqu %xmm11, -64(%rsi) movdqu %xmm12, -48(%rsi) movdqu %xmm13, -32(%rsi) movdqu %xmm14, -16(%rsi) sub $128, %rcx L209: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 mov %rdi, %rbx mov %rdx, %r12 mov %rax, %rdi mov %rdi, %r11 jmp L221 .balign 16 L220: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L221: cmp $6, %rdx jae L220 cmp $0, %rdx jbe L222 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L224 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L225 L224: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L226 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L228 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L230 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L231 L230: L231: jmp L229 L228: L229: jmp L227 L226: L227: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L225: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L223 L222: L223: mov %rbx, %rdi mov %r12, %rdx pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L233 .balign 16 L232: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L233: cmp %rdx, %rbx jne L232 add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L234 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu 0(%rax), %xmm0 movdqu %xmm0, %xmm10 cmp $8, %r10 jae L236 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L237 L236: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L237: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm10 movdqu %xmm10, 0(%rax) jmp L235 L234: L235: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu 0(%r15), %xmm0 pcmpeqd %xmm8, %xmm0 pextrq $0, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rax adc $0, %rax pextrq $1, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rdx adc $0, %rdx add %rdx, %rax mov %rax, %rcx pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 mov %rcx, %rax ret .section .note.GNU-stack,"",%progbits
usenix-security-verdict/verdict
210,728
deps/libcrux/sys/hacl/c/vale/src/aesgcm-x86_64-mingw.S
.text .global aes128_key_expansion aes128_key_expansion: movdqu 0(%rcx), %xmm1 movdqu %xmm1, 0(%rdx) aeskeygenassist $1, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 16(%rdx) aeskeygenassist $2, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 32(%rdx) aeskeygenassist $4, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 48(%rdx) aeskeygenassist $8, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 64(%rdx) aeskeygenassist $16, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 80(%rdx) aeskeygenassist $32, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 96(%rdx) aeskeygenassist $64, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 112(%rdx) aeskeygenassist $128, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 128(%rdx) aeskeygenassist $27, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 144(%rdx) aeskeygenassist $54, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 160(%rdx) pxor %xmm1, %xmm1 pxor %xmm2, %xmm2 pxor %xmm3, %xmm3 ret .global aes128_keyhash_init aes128_keyhash_init: mov $579005069656919567, %r8 pinsrq $0, %r8, %xmm4 mov $283686952306183, %r8 pinsrq $1, %r8, %xmm4 pxor %xmm0, %xmm0 movdqu %xmm0, 80(%rdx) mov %rcx, %r8 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm4, %xmm0 mov %rdx, %rcx movdqu %xmm0, 32(%rcx) movdqu %xmm6, %xmm0 mov %r12, %rax movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 0(%rcx) movdqu %xmm6, %xmm1 movdqu %xmm6, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 16(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 48(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 64(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 96(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 112(%rcx) movdqu %xmm0, %xmm6 mov %rax, %r12 ret .global aes256_key_expansion aes256_key_expansion: movdqu 0(%rcx), %xmm1 movdqu 16(%rcx), %xmm3 movdqu %xmm1, 0(%rdx) movdqu %xmm3, 16(%rdx) aeskeygenassist $1, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 32(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 48(%rdx) aeskeygenassist $2, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 64(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 80(%rdx) aeskeygenassist $4, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 96(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 112(%rdx) aeskeygenassist $8, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 128(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 144(%rdx) aeskeygenassist $16, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 160(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 176(%rdx) aeskeygenassist $32, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 192(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 208(%rdx) aeskeygenassist $64, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 224(%rdx) pxor %xmm1, %xmm1 pxor %xmm2, %xmm2 pxor %xmm3, %xmm3 pxor %xmm4, %xmm4 ret .global aes256_keyhash_init aes256_keyhash_init: mov $579005069656919567, %r8 pinsrq $0, %r8, %xmm4 mov $283686952306183, %r8 pinsrq $1, %r8, %xmm4 pxor %xmm0, %xmm0 movdqu %xmm0, 80(%rdx) mov %rcx, %r8 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm4, %xmm0 mov %rdx, %rcx movdqu %xmm0, 32(%rcx) movdqu %xmm6, %xmm0 mov %r12, %rax movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 0(%rcx) movdqu %xmm6, %xmm1 movdqu %xmm6, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 16(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 48(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 64(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 96(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 112(%rcx) movdqu %xmm0, %xmm6 mov %rax, %r12 ret .global gctr128_bytes gctr128_bytes: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx pextrq $0, %xmm15, %rax push %rax pextrq $1, %xmm15, %rax push %rax pextrq $0, %xmm14, %rax push %rax pextrq $1, %xmm14, %rax push %rax pextrq $0, %xmm13, %rax push %rax pextrq $1, %xmm13, %rax push %rax pextrq $0, %xmm12, %rax push %rax pextrq $1, %xmm12, %rax push %rax pextrq $0, %xmm11, %rax push %rax pextrq $1, %xmm11, %rax push %rax pextrq $0, %xmm10, %rax push %rax pextrq $1, %xmm10, %rax push %rax pextrq $0, %xmm9, %rax push %rax pextrq $1, %xmm9, %rax push %rax pextrq $0, %xmm8, %rax push %rax pextrq $1, %xmm8, %rax push %rax pextrq $0, %xmm7, %rax push %rax pextrq $1, %xmm7, %rax push %rax pextrq $0, %xmm6, %rax push %rax pextrq $1, %xmm6, %rax push %rax mov 272(%rsp), %rax movdqu 0(%rax), %xmm7 mov %rcx, %rax mov %r8, %rbx mov %rdx, %rsi mov %r9, %r13 mov 264(%rsp), %r8 mov 280(%rsp), %rcx mov %rcx, %rbp imul $16, %rbp mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm8 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm8 mov %rcx, %rdx shr $2, %rdx and $3, %rcx cmp $0, %rdx jbe L0 mov %rax, %r9 mov %rbx, %r10 pshufb %xmm8, %xmm7 movdqu %xmm7, %xmm9 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pshufb %xmm0, %xmm9 movdqu %xmm9, %xmm10 pxor %xmm3, %xmm3 mov $1, %rax pinsrd $2, %eax, %xmm3 paddd %xmm3, %xmm9 mov $3, %rax pinsrd $2, %eax, %xmm3 mov $2, %rax pinsrd $0, %eax, %xmm3 paddd %xmm3, %xmm10 pshufb %xmm8, %xmm9 pshufb %xmm8, %xmm10 pextrq $0, %xmm7, %rdi mov $283686952306183, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pxor %xmm15, %xmm15 mov $4, %rax pinsrd $0, %eax, %xmm15 mov $4, %rax pinsrd $2, %eax, %xmm15 jmp L3 .balign 16 L2: pinsrq $0, %rdi, %xmm2 pinsrq $0, %rdi, %xmm12 pinsrq $0, %rdi, %xmm13 pinsrq $0, %rdi, %xmm14 shufpd $2, %xmm9, %xmm2 shufpd $0, %xmm9, %xmm12 shufpd $2, %xmm10, %xmm13 shufpd $0, %xmm10, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 movdqu 0(%r8), %xmm3 movdqu 16(%r8), %xmm4 movdqu 32(%r8), %xmm5 movdqu 48(%r8), %xmm6 paddd %xmm15, %xmm9 paddd %xmm15, %xmm10 pxor %xmm3, %xmm2 pxor %xmm3, %xmm12 pxor %xmm3, %xmm13 pxor %xmm3, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 64(%r8), %xmm3 movdqu 80(%r8), %xmm4 movdqu 96(%r8), %xmm5 movdqu 112(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 128(%r8), %xmm3 movdqu 144(%r8), %xmm4 movdqu 160(%r8), %xmm5 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenclast %xmm5, %xmm2 aesenclast %xmm5, %xmm12 aesenclast %xmm5, %xmm13 aesenclast %xmm5, %xmm14 movdqu 0(%r9), %xmm7 pxor %xmm7, %xmm2 movdqu 16(%r9), %xmm7 pxor %xmm7, %xmm12 movdqu 32(%r9), %xmm7 pxor %xmm7, %xmm13 movdqu 48(%r9), %xmm7 pxor %xmm7, %xmm14 movdqu %xmm2, 0(%r10) movdqu %xmm12, 16(%r10) movdqu %xmm13, 32(%r10) movdqu %xmm14, 48(%r10) sub $1, %rdx add $64, %r9 add $64, %r10 .balign 16 L3: cmp $0, %rdx ja L2 movdqu %xmm9, %xmm7 pinsrq $0, %rdi, %xmm7 pshufb %xmm8, %xmm7 mov %r9, %rax mov %r10, %rbx jmp L1 L0: L1: mov $0, %rdx mov %rax, %r9 mov %rbx, %r10 pxor %xmm4, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 jmp L5 .balign 16 L4: movdqu %xmm7, %xmm0 pshufb %xmm8, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r9), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rdx add $16, %r9 add $16, %r10 paddd %xmm4, %xmm7 .balign 16 L5: cmp %rcx, %rdx jne L4 cmp %rbp, %rsi jbe L6 movdqu 0(%r13), %xmm1 movdqu %xmm7, %xmm0 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm2 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm2 pshufb %xmm2, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm1 movdqu %xmm1, 0(%r13) jmp L7 L6: L7: pop %rax pinsrq $1, %rax, %xmm6 pop %rax pinsrq $0, %rax, %xmm6 pop %rax pinsrq $1, %rax, %xmm7 pop %rax pinsrq $0, %rax, %xmm7 pop %rax pinsrq $1, %rax, %xmm8 pop %rax pinsrq $0, %rax, %xmm8 pop %rax pinsrq $1, %rax, %xmm9 pop %rax pinsrq $0, %rax, %xmm9 pop %rax pinsrq $1, %rax, %xmm10 pop %rax pinsrq $0, %rax, %xmm10 pop %rax pinsrq $1, %rax, %xmm11 pop %rax pinsrq $0, %rax, %xmm11 pop %rax pinsrq $1, %rax, %xmm12 pop %rax pinsrq $0, %rax, %xmm12 pop %rax pinsrq $1, %rax, %xmm13 pop %rax pinsrq $0, %rax, %xmm13 pop %rax pinsrq $1, %rax, %xmm14 pop %rax pinsrq $0, %rax, %xmm14 pop %rax pinsrq $1, %rax, %xmm15 pop %rax pinsrq $0, %rax, %xmm15 pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global gctr256_bytes gctr256_bytes: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx pextrq $0, %xmm15, %rax push %rax pextrq $1, %xmm15, %rax push %rax pextrq $0, %xmm14, %rax push %rax pextrq $1, %xmm14, %rax push %rax pextrq $0, %xmm13, %rax push %rax pextrq $1, %xmm13, %rax push %rax pextrq $0, %xmm12, %rax push %rax pextrq $1, %xmm12, %rax push %rax pextrq $0, %xmm11, %rax push %rax pextrq $1, %xmm11, %rax push %rax pextrq $0, %xmm10, %rax push %rax pextrq $1, %xmm10, %rax push %rax pextrq $0, %xmm9, %rax push %rax pextrq $1, %xmm9, %rax push %rax pextrq $0, %xmm8, %rax push %rax pextrq $1, %xmm8, %rax push %rax pextrq $0, %xmm7, %rax push %rax pextrq $1, %xmm7, %rax push %rax pextrq $0, %xmm6, %rax push %rax pextrq $1, %xmm6, %rax push %rax mov 272(%rsp), %rax movdqu 0(%rax), %xmm7 mov %rcx, %rax mov %r8, %rbx mov %rdx, %rsi mov %r9, %r13 mov 264(%rsp), %r8 mov 280(%rsp), %rcx mov %rcx, %rbp imul $16, %rbp mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm8 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm8 mov %rcx, %rdx shr $2, %rdx and $3, %rcx cmp $0, %rdx jbe L8 mov %rax, %r9 mov %rbx, %r10 pshufb %xmm8, %xmm7 movdqu %xmm7, %xmm9 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pshufb %xmm0, %xmm9 movdqu %xmm9, %xmm10 pxor %xmm3, %xmm3 mov $1, %rax pinsrd $2, %eax, %xmm3 paddd %xmm3, %xmm9 mov $3, %rax pinsrd $2, %eax, %xmm3 mov $2, %rax pinsrd $0, %eax, %xmm3 paddd %xmm3, %xmm10 pshufb %xmm8, %xmm9 pshufb %xmm8, %xmm10 pextrq $0, %xmm7, %rdi mov $283686952306183, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pxor %xmm15, %xmm15 mov $4, %rax pinsrd $0, %eax, %xmm15 mov $4, %rax pinsrd $2, %eax, %xmm15 jmp L11 .balign 16 L10: pinsrq $0, %rdi, %xmm2 pinsrq $0, %rdi, %xmm12 pinsrq $0, %rdi, %xmm13 pinsrq $0, %rdi, %xmm14 shufpd $2, %xmm9, %xmm2 shufpd $0, %xmm9, %xmm12 shufpd $2, %xmm10, %xmm13 shufpd $0, %xmm10, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 movdqu 0(%r8), %xmm3 movdqu 16(%r8), %xmm4 movdqu 32(%r8), %xmm5 movdqu 48(%r8), %xmm6 paddd %xmm15, %xmm9 paddd %xmm15, %xmm10 pxor %xmm3, %xmm2 pxor %xmm3, %xmm12 pxor %xmm3, %xmm13 pxor %xmm3, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 64(%r8), %xmm3 movdqu 80(%r8), %xmm4 movdqu 96(%r8), %xmm5 movdqu 112(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 128(%r8), %xmm3 movdqu 144(%r8), %xmm4 movdqu 160(%r8), %xmm5 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 movdqu %xmm5, %xmm3 movdqu 176(%r8), %xmm4 movdqu 192(%r8), %xmm5 movdqu 208(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 224(%r8), %xmm5 aesenclast %xmm5, %xmm2 aesenclast %xmm5, %xmm12 aesenclast %xmm5, %xmm13 aesenclast %xmm5, %xmm14 movdqu 0(%r9), %xmm7 pxor %xmm7, %xmm2 movdqu 16(%r9), %xmm7 pxor %xmm7, %xmm12 movdqu 32(%r9), %xmm7 pxor %xmm7, %xmm13 movdqu 48(%r9), %xmm7 pxor %xmm7, %xmm14 movdqu %xmm2, 0(%r10) movdqu %xmm12, 16(%r10) movdqu %xmm13, 32(%r10) movdqu %xmm14, 48(%r10) sub $1, %rdx add $64, %r9 add $64, %r10 .balign 16 L11: cmp $0, %rdx ja L10 movdqu %xmm9, %xmm7 pinsrq $0, %rdi, %xmm7 pshufb %xmm8, %xmm7 mov %r9, %rax mov %r10, %rbx jmp L9 L8: L9: mov $0, %rdx mov %rax, %r9 mov %rbx, %r10 pxor %xmm4, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 jmp L13 .balign 16 L12: movdqu %xmm7, %xmm0 pshufb %xmm8, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r9), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rdx add $16, %r9 add $16, %r10 paddd %xmm4, %xmm7 .balign 16 L13: cmp %rcx, %rdx jne L12 cmp %rbp, %rsi jbe L14 movdqu 0(%r13), %xmm1 movdqu %xmm7, %xmm0 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm2 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm2 pshufb %xmm2, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm1 movdqu %xmm1, 0(%r13) jmp L15 L14: L15: pop %rax pinsrq $1, %rax, %xmm6 pop %rax pinsrq $0, %rax, %xmm6 pop %rax pinsrq $1, %rax, %xmm7 pop %rax pinsrq $0, %rax, %xmm7 pop %rax pinsrq $1, %rax, %xmm8 pop %rax pinsrq $0, %rax, %xmm8 pop %rax pinsrq $1, %rax, %xmm9 pop %rax pinsrq $0, %rax, %xmm9 pop %rax pinsrq $1, %rax, %xmm10 pop %rax pinsrq $0, %rax, %xmm10 pop %rax pinsrq $1, %rax, %xmm11 pop %rax pinsrq $0, %rax, %xmm11 pop %rax pinsrq $1, %rax, %xmm12 pop %rax pinsrq $0, %rax, %xmm12 pop %rax pinsrq $1, %rax, %xmm13 pop %rax pinsrq $0, %rax, %xmm13 pop %rax pinsrq $1, %rax, %xmm14 pop %rax pinsrq $0, %rax, %xmm14 pop %rax pinsrq $1, %rax, %xmm15 pop %rax pinsrq $0, %rax, %xmm15 pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global compute_iv_stdcall compute_iv_stdcall: cmp $12, %rdx jne L16 push %rdi push %rsi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx mov %r9, %rcx mov 56(%rsp), %r8 mov 64(%rsp), %r9 cmp $12, %rsi jne L18 movdqu 0(%r8), %xmm0 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm1 mov $283686952306183, %rax pinsrq $1, %rax, %xmm1 pshufb %xmm1, %xmm0 mov $1, %rax pinsrd $0, %eax, %xmm0 movdqu %xmm0, 0(%rcx) jmp L19 L18: mov %rcx, %rax add $32, %r9 mov %r8, %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L21 .balign 16 L20: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L21: cmp $6, %rdx jae L20 cmp $0, %rdx jbe L22 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L24 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L25 L24: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L26 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L28 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L30 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L31 L30: L31: jmp L29 L28: L29: jmp L27 L26: L27: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L25: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L23 L22: L23: mov %rsi, %r15 cmp %rcx, %rsi jbe L32 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L34 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L35 L34: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L35: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L33 L32: L33: mov %rax, %rcx mov $0, %r11 mov %rsi, %r13 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm8, 0(%rcx) L19: pop %rsi pop %rdi jmp L17 L16: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx pextrq $0, %xmm15, %rax push %rax pextrq $1, %xmm15, %rax push %rax pextrq $0, %xmm14, %rax push %rax pextrq $1, %xmm14, %rax push %rax pextrq $0, %xmm13, %rax push %rax pextrq $1, %xmm13, %rax push %rax pextrq $0, %xmm12, %rax push %rax pextrq $1, %xmm12, %rax push %rax pextrq $0, %xmm11, %rax push %rax pextrq $1, %xmm11, %rax push %rax pextrq $0, %xmm10, %rax push %rax pextrq $1, %xmm10, %rax push %rax pextrq $0, %xmm9, %rax push %rax pextrq $1, %xmm9, %rax push %rax pextrq $0, %xmm8, %rax push %rax pextrq $1, %xmm8, %rax push %rax pextrq $0, %xmm7, %rax push %rax pextrq $1, %xmm7, %rax push %rax pextrq $0, %xmm6, %rax push %rax pextrq $1, %xmm6, %rax push %rax mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx mov %r9, %rcx mov 264(%rsp), %r8 mov 272(%rsp), %r9 cmp $12, %rsi jne L36 movdqu 0(%r8), %xmm0 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm1 mov $283686952306183, %rax pinsrq $1, %rax, %xmm1 pshufb %xmm1, %xmm0 mov $1, %rax pinsrd $0, %eax, %xmm0 movdqu %xmm0, 0(%rcx) jmp L37 L36: mov %rcx, %rax add $32, %r9 mov %r8, %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L39 .balign 16 L38: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L39: cmp $6, %rdx jae L38 cmp $0, %rdx jbe L40 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L42 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L43 L42: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L44 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L46 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L48 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L49 L48: L49: jmp L47 L46: L47: jmp L45 L44: L45: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L43: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L41 L40: L41: mov %rsi, %r15 cmp %rcx, %rsi jbe L50 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L52 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L53 L52: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L53: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L51 L50: L51: mov %rax, %rcx mov $0, %r11 mov %rsi, %r13 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm8, 0(%rcx) L37: pop %rax pinsrq $1, %rax, %xmm6 pop %rax pinsrq $0, %rax, %xmm6 pop %rax pinsrq $1, %rax, %xmm7 pop %rax pinsrq $0, %rax, %xmm7 pop %rax pinsrq $1, %rax, %xmm8 pop %rax pinsrq $0, %rax, %xmm8 pop %rax pinsrq $1, %rax, %xmm9 pop %rax pinsrq $0, %rax, %xmm9 pop %rax pinsrq $1, %rax, %xmm10 pop %rax pinsrq $0, %rax, %xmm10 pop %rax pinsrq $1, %rax, %xmm11 pop %rax pinsrq $0, %rax, %xmm11 pop %rax pinsrq $1, %rax, %xmm12 pop %rax pinsrq $0, %rax, %xmm12 pop %rax pinsrq $1, %rax, %xmm13 pop %rax pinsrq $0, %rax, %xmm13 pop %rax pinsrq $1, %rax, %xmm14 pop %rax pinsrq $0, %rax, %xmm14 pop %rax pinsrq $1, %rax, %xmm15 pop %rax pinsrq $0, %rax, %xmm15 pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 L17: ret .global gcm128_encrypt_opt gcm128_encrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx pextrq $0, %xmm15, %rax push %rax pextrq $1, %xmm15, %rax push %rax pextrq $0, %xmm14, %rax push %rax pextrq $1, %xmm14, %rax push %rax pextrq $0, %xmm13, %rax push %rax pextrq $1, %xmm13, %rax push %rax pextrq $0, %xmm12, %rax push %rax pextrq $1, %xmm12, %rax push %rax pextrq $0, %xmm11, %rax push %rax pextrq $1, %xmm11, %rax push %rax pextrq $0, %xmm10, %rax push %rax pextrq $1, %xmm10, %rax push %rax pextrq $0, %xmm9, %rax push %rax pextrq $1, %xmm9, %rax push %rax pextrq $0, %xmm8, %rax push %rax pextrq $1, %xmm8, %rax push %rax pextrq $0, %xmm7, %rax push %rax pextrq $1, %xmm7, %rax push %rax pextrq $0, %xmm6, %rax push %rax pextrq $1, %xmm6, %rax push %rax mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx mov %r9, %rcx mov 264(%rsp), %r8 mov 272(%rsp), %r9 mov 352(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 280(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L55 .balign 16 L54: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L55: cmp $6, %rdx jae L54 cmp $0, %rdx jbe L56 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L58 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L59 L58: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L60 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L62 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L64 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L65 L64: L65: jmp L63 L62: L63: jmp L61 L60: L61: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L59: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L57 L56: L57: mov %rsi, %r15 cmp %rcx, %rsi jbe L66 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L68 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L69 L68: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L69: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L67 L66: L67: mov 288(%rsp), %rdi mov 296(%rsp), %rsi mov 304(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L70 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L71 L70: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rsi), %r14 movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L72 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L73 L72: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L73: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 movdqu 32(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi vpshufb %xmm0, %xmm9, %xmm8 vpshufb %xmm0, %xmm10, %xmm2 movdqu %xmm8, 112(%rbp) vpshufb %xmm0, %xmm11, %xmm4 movdqu %xmm2, 96(%rbp) vpshufb %xmm0, %xmm12, %xmm5 movdqu %xmm4, 80(%rbp) vpshufb %xmm0, %xmm13, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm14, %xmm7 movdqu %xmm6, 48(%rbp) movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L74 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L75 L74: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L75: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 movdqu 32(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi sub $12, %rdx movdqu 32(%rbp), %xmm8 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) jmp L77 .balign 16 L76: add $6, %rbx cmp $256, %rbx jb L78 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L79 L78: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L79: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx add $96, %r14 cmp $0, %rdx jbe L80 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L81 L80: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L81: .balign 16 L77: cmp $0, %rdx ja L76 movdqu 32(%rbp), %xmm7 movdqu %xmm1, 32(%rbp) pxor %xmm4, %xmm4 movdqu %xmm4, 16(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm0 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm0 movdqu %xmm9, -96(%rsi) vpshufb %xmm0, %xmm9, %xmm9 vpxor %xmm7, %xmm1, %xmm1 movdqu %xmm10, -80(%rsi) vpshufb %xmm0, %xmm10, %xmm10 movdqu %xmm11, -64(%rsi) vpshufb %xmm0, %xmm11, %xmm11 movdqu %xmm12, -48(%rsi) vpshufb %xmm0, %xmm12, %xmm12 movdqu %xmm13, -32(%rsi) vpshufb %xmm0, %xmm13, %xmm13 movdqu %xmm14, -16(%rsi) vpshufb %xmm0, %xmm14, %xmm14 pxor %xmm4, %xmm4 movdqu %xmm14, %xmm7 movdqu %xmm4, 16(%rbp) movdqu %xmm13, 48(%rbp) movdqu %xmm12, 64(%rbp) movdqu %xmm11, 80(%rbp) movdqu %xmm10, 96(%rbp) movdqu %xmm9, 112(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 sub $128, %rcx L71: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 312(%rsp), %rax mov 320(%rsp), %rdi mov 328(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L83 .balign 16 L82: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L83: cmp %rdx, %rbx jne L82 mov %rdi, %r11 jmp L85 .balign 16 L84: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L85: cmp $6, %rdx jae L84 cmp $0, %rdx jbe L86 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L88 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L89 L88: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L90 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L92 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L94 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L95 L94: L95: jmp L93 L92: L93: jmp L91 L90: L91: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L89: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L87 L86: L87: add 304(%rsp), %r14 imul $16, %r14 mov 344(%rsp), %r13 cmp %r14, %r13 jbe L96 mov 336(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%rax), %xmm4 pxor %xmm4, %xmm0 movdqu %xmm0, 0(%rax) cmp $8, %r10 jae L98 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L99 L98: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L99: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L97 L96: L97: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 360(%rsp), %r15 movdqu %xmm8, 0(%r15) pop %rax pinsrq $1, %rax, %xmm6 pop %rax pinsrq $0, %rax, %xmm6 pop %rax pinsrq $1, %rax, %xmm7 pop %rax pinsrq $0, %rax, %xmm7 pop %rax pinsrq $1, %rax, %xmm8 pop %rax pinsrq $0, %rax, %xmm8 pop %rax pinsrq $1, %rax, %xmm9 pop %rax pinsrq $0, %rax, %xmm9 pop %rax pinsrq $1, %rax, %xmm10 pop %rax pinsrq $0, %rax, %xmm10 pop %rax pinsrq $1, %rax, %xmm11 pop %rax pinsrq $0, %rax, %xmm11 pop %rax pinsrq $1, %rax, %xmm12 pop %rax pinsrq $0, %rax, %xmm12 pop %rax pinsrq $1, %rax, %xmm13 pop %rax pinsrq $0, %rax, %xmm13 pop %rax pinsrq $1, %rax, %xmm14 pop %rax pinsrq $0, %rax, %xmm14 pop %rax pinsrq $1, %rax, %xmm15 pop %rax pinsrq $0, %rax, %xmm15 pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global gcm256_encrypt_opt gcm256_encrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx pextrq $0, %xmm15, %rax push %rax pextrq $1, %xmm15, %rax push %rax pextrq $0, %xmm14, %rax push %rax pextrq $1, %xmm14, %rax push %rax pextrq $0, %xmm13, %rax push %rax pextrq $1, %xmm13, %rax push %rax pextrq $0, %xmm12, %rax push %rax pextrq $1, %xmm12, %rax push %rax pextrq $0, %xmm11, %rax push %rax pextrq $1, %xmm11, %rax push %rax pextrq $0, %xmm10, %rax push %rax pextrq $1, %xmm10, %rax push %rax pextrq $0, %xmm9, %rax push %rax pextrq $1, %xmm9, %rax push %rax pextrq $0, %xmm8, %rax push %rax pextrq $1, %xmm8, %rax push %rax pextrq $0, %xmm7, %rax push %rax pextrq $1, %xmm7, %rax push %rax pextrq $0, %xmm6, %rax push %rax pextrq $1, %xmm6, %rax push %rax mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx mov %r9, %rcx mov 264(%rsp), %r8 mov 272(%rsp), %r9 mov 352(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 280(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L101 .balign 16 L100: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L101: cmp $6, %rdx jae L100 cmp $0, %rdx jbe L102 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L104 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L105 L104: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L106 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L108 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L110 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L111 L110: L111: jmp L109 L108: L109: jmp L107 L106: L107: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L105: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L103 L102: L103: mov %rsi, %r15 cmp %rcx, %rsi jbe L112 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L114 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L115 L114: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L115: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L113 L112: L113: mov 288(%rsp), %rdi mov 296(%rsp), %rsi mov 304(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L116 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L117 L116: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rsi), %r14 movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L118 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L119 L118: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L119: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 80(%rcx), %xmm15 movdqu 96(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi vpshufb %xmm0, %xmm9, %xmm8 vpshufb %xmm0, %xmm10, %xmm2 movdqu %xmm8, 112(%rbp) vpshufb %xmm0, %xmm11, %xmm4 movdqu %xmm2, 96(%rbp) vpshufb %xmm0, %xmm12, %xmm5 movdqu %xmm4, 80(%rbp) vpshufb %xmm0, %xmm13, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm14, %xmm7 movdqu %xmm6, 48(%rbp) movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L120 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L121 L120: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L121: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 80(%rcx), %xmm15 movdqu 96(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi sub $12, %rdx movdqu 32(%rbp), %xmm8 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) jmp L123 .balign 16 L122: add $6, %rbx cmp $256, %rbx jb L124 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L125 L124: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L125: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 48(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 64(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 80(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 96(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx add $96, %r14 cmp $0, %rdx jbe L126 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L127 L126: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L127: .balign 16 L123: cmp $0, %rdx ja L122 movdqu 32(%rbp), %xmm7 movdqu %xmm1, 32(%rbp) pxor %xmm4, %xmm4 movdqu %xmm4, 16(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm0 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm0 movdqu %xmm9, -96(%rsi) vpshufb %xmm0, %xmm9, %xmm9 vpxor %xmm7, %xmm1, %xmm1 movdqu %xmm10, -80(%rsi) vpshufb %xmm0, %xmm10, %xmm10 movdqu %xmm11, -64(%rsi) vpshufb %xmm0, %xmm11, %xmm11 movdqu %xmm12, -48(%rsi) vpshufb %xmm0, %xmm12, %xmm12 movdqu %xmm13, -32(%rsi) vpshufb %xmm0, %xmm13, %xmm13 movdqu %xmm14, -16(%rsi) vpshufb %xmm0, %xmm14, %xmm14 pxor %xmm4, %xmm4 movdqu %xmm14, %xmm7 movdqu %xmm4, 16(%rbp) movdqu %xmm13, 48(%rbp) movdqu %xmm12, 64(%rbp) movdqu %xmm11, 80(%rbp) movdqu %xmm10, 96(%rbp) movdqu %xmm9, 112(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 sub $128, %rcx L117: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 312(%rsp), %rax mov 320(%rsp), %rdi mov 328(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L129 .balign 16 L128: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L129: cmp %rdx, %rbx jne L128 mov %rdi, %r11 jmp L131 .balign 16 L130: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L131: cmp $6, %rdx jae L130 cmp $0, %rdx jbe L132 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L134 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L135 L134: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L136 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L138 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L140 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L141 L140: L141: jmp L139 L138: L139: jmp L137 L136: L137: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L135: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L133 L132: L133: add 304(%rsp), %r14 imul $16, %r14 mov 344(%rsp), %r13 cmp %r14, %r13 jbe L142 mov 336(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%rax), %xmm4 pxor %xmm4, %xmm0 movdqu %xmm0, 0(%rax) cmp $8, %r10 jae L144 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L145 L144: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L145: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L143 L142: L143: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 360(%rsp), %r15 movdqu %xmm8, 0(%r15) pop %rax pinsrq $1, %rax, %xmm6 pop %rax pinsrq $0, %rax, %xmm6 pop %rax pinsrq $1, %rax, %xmm7 pop %rax pinsrq $0, %rax, %xmm7 pop %rax pinsrq $1, %rax, %xmm8 pop %rax pinsrq $0, %rax, %xmm8 pop %rax pinsrq $1, %rax, %xmm9 pop %rax pinsrq $0, %rax, %xmm9 pop %rax pinsrq $1, %rax, %xmm10 pop %rax pinsrq $0, %rax, %xmm10 pop %rax pinsrq $1, %rax, %xmm11 pop %rax pinsrq $0, %rax, %xmm11 pop %rax pinsrq $1, %rax, %xmm12 pop %rax pinsrq $0, %rax, %xmm12 pop %rax pinsrq $1, %rax, %xmm13 pop %rax pinsrq $0, %rax, %xmm13 pop %rax pinsrq $1, %rax, %xmm14 pop %rax pinsrq $0, %rax, %xmm14 pop %rax pinsrq $1, %rax, %xmm15 pop %rax pinsrq $0, %rax, %xmm15 pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global gcm128_decrypt_opt gcm128_decrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx pextrq $0, %xmm15, %rax push %rax pextrq $1, %xmm15, %rax push %rax pextrq $0, %xmm14, %rax push %rax pextrq $1, %xmm14, %rax push %rax pextrq $0, %xmm13, %rax push %rax pextrq $1, %xmm13, %rax push %rax pextrq $0, %xmm12, %rax push %rax pextrq $1, %xmm12, %rax push %rax pextrq $0, %xmm11, %rax push %rax pextrq $1, %xmm11, %rax push %rax pextrq $0, %xmm10, %rax push %rax pextrq $1, %xmm10, %rax push %rax pextrq $0, %xmm9, %rax push %rax pextrq $1, %xmm9, %rax push %rax pextrq $0, %xmm8, %rax push %rax pextrq $1, %xmm8, %rax push %rax pextrq $0, %xmm7, %rax push %rax pextrq $1, %xmm7, %rax push %rax pextrq $0, %xmm6, %rax push %rax pextrq $1, %xmm6, %rax push %rax mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx mov %r9, %rcx mov 264(%rsp), %r8 mov 272(%rsp), %r9 mov 352(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 280(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L147 .balign 16 L146: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L147: cmp $6, %rdx jae L146 cmp $0, %rdx jbe L148 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L150 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L151 L150: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L152 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L154 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L156 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L157 L156: L157: jmp L155 L154: L155: jmp L153 L152: L153: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L151: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L149 L148: L149: mov %rsi, %r15 cmp %rcx, %rsi jbe L158 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L160 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L161 L160: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L161: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L159 L158: L159: mov 288(%rsp), %rdi mov 296(%rsp), %rsi mov 304(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L162 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L163 L162: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rdi), %r14 movdqu 32(%rbp), %xmm8 movdqu 80(%rdi), %xmm7 movdqu 64(%rdi), %xmm4 movdqu 48(%rdi), %xmm5 movdqu 32(%rdi), %xmm6 vpshufb %xmm0, %xmm7, %xmm7 movdqu 16(%rdi), %xmm2 vpshufb %xmm0, %xmm4, %xmm4 movdqu 0(%rdi), %xmm3 vpshufb %xmm0, %xmm5, %xmm5 movdqu %xmm4, 48(%rbp) vpshufb %xmm0, %xmm6, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm2, %xmm2 movdqu %xmm6, 80(%rbp) vpshufb %xmm0, %xmm3, %xmm3 movdqu %xmm2, 96(%rbp) movdqu %xmm3, 112(%rbp) pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) cmp $6, %rdx jne L164 sub $96, %r14 jmp L165 L164: L165: jmp L167 .balign 16 L166: add $6, %rbx cmp $256, %rbx jb L168 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L169 L168: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L169: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx cmp $6, %rdx jbe L170 add $96, %r14 jmp L171 L170: L171: cmp $0, %rdx jbe L172 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L173 L172: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L173: .balign 16 L167: cmp $0, %rdx ja L166 movdqu %xmm1, 32(%rbp) movdqu %xmm9, -96(%rsi) movdqu %xmm10, -80(%rsi) movdqu %xmm11, -64(%rsi) movdqu %xmm12, -48(%rsi) movdqu %xmm13, -32(%rsi) movdqu %xmm14, -16(%rsi) sub $128, %rcx L163: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 312(%rsp), %rax mov 320(%rsp), %rdi mov 328(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 mov %rdi, %rbx mov %rdx, %r12 mov %rax, %rdi mov %rdi, %r11 jmp L175 .balign 16 L174: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L175: cmp $6, %rdx jae L174 cmp $0, %rdx jbe L176 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L178 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L179 L178: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L180 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L182 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L184 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L185 L184: L185: jmp L183 L182: L183: jmp L181 L180: L181: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L179: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L177 L176: L177: mov %rbx, %rdi mov %r12, %rdx pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L187 .balign 16 L186: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L187: cmp %rdx, %rbx jne L186 add 304(%rsp), %r14 imul $16, %r14 mov 344(%rsp), %r13 cmp %r14, %r13 jbe L188 mov 336(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu 0(%rax), %xmm0 movdqu %xmm0, %xmm10 cmp $8, %r10 jae L190 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L191 L190: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L191: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm10 movdqu %xmm10, 0(%rax) jmp L189 L188: L189: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 360(%rsp), %r15 movdqu 0(%r15), %xmm0 pcmpeqd %xmm8, %xmm0 pextrq $0, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rax adc $0, %rax pextrq $1, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rdx adc $0, %rdx add %rdx, %rax mov %rax, %rcx pop %rax pinsrq $1, %rax, %xmm6 pop %rax pinsrq $0, %rax, %xmm6 pop %rax pinsrq $1, %rax, %xmm7 pop %rax pinsrq $0, %rax, %xmm7 pop %rax pinsrq $1, %rax, %xmm8 pop %rax pinsrq $0, %rax, %xmm8 pop %rax pinsrq $1, %rax, %xmm9 pop %rax pinsrq $0, %rax, %xmm9 pop %rax pinsrq $1, %rax, %xmm10 pop %rax pinsrq $0, %rax, %xmm10 pop %rax pinsrq $1, %rax, %xmm11 pop %rax pinsrq $0, %rax, %xmm11 pop %rax pinsrq $1, %rax, %xmm12 pop %rax pinsrq $0, %rax, %xmm12 pop %rax pinsrq $1, %rax, %xmm13 pop %rax pinsrq $0, %rax, %xmm13 pop %rax pinsrq $1, %rax, %xmm14 pop %rax pinsrq $0, %rax, %xmm14 pop %rax pinsrq $1, %rax, %xmm15 pop %rax pinsrq $0, %rax, %xmm15 pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 mov %rcx, %rax ret .global gcm256_decrypt_opt gcm256_decrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx pextrq $0, %xmm15, %rax push %rax pextrq $1, %xmm15, %rax push %rax pextrq $0, %xmm14, %rax push %rax pextrq $1, %xmm14, %rax push %rax pextrq $0, %xmm13, %rax push %rax pextrq $1, %xmm13, %rax push %rax pextrq $0, %xmm12, %rax push %rax pextrq $1, %xmm12, %rax push %rax pextrq $0, %xmm11, %rax push %rax pextrq $1, %xmm11, %rax push %rax pextrq $0, %xmm10, %rax push %rax pextrq $1, %xmm10, %rax push %rax pextrq $0, %xmm9, %rax push %rax pextrq $1, %xmm9, %rax push %rax pextrq $0, %xmm8, %rax push %rax pextrq $1, %xmm8, %rax push %rax pextrq $0, %xmm7, %rax push %rax pextrq $1, %xmm7, %rax push %rax pextrq $0, %xmm6, %rax push %rax pextrq $1, %xmm6, %rax push %rax mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx mov %r9, %rcx mov 264(%rsp), %r8 mov 272(%rsp), %r9 mov 352(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 280(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L193 .balign 16 L192: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L193: cmp $6, %rdx jae L192 cmp $0, %rdx jbe L194 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L196 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L197 L196: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L198 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L200 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L202 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L203 L202: L203: jmp L201 L200: L201: jmp L199 L198: L199: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L197: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L195 L194: L195: mov %rsi, %r15 cmp %rcx, %rsi jbe L204 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L206 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L207 L206: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L207: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L205 L204: L205: mov 288(%rsp), %rdi mov 296(%rsp), %rsi mov 304(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L208 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L209 L208: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rdi), %r14 movdqu 32(%rbp), %xmm8 movdqu 80(%rdi), %xmm7 movdqu 64(%rdi), %xmm4 movdqu 48(%rdi), %xmm5 movdqu 32(%rdi), %xmm6 vpshufb %xmm0, %xmm7, %xmm7 movdqu 16(%rdi), %xmm2 vpshufb %xmm0, %xmm4, %xmm4 movdqu 0(%rdi), %xmm3 vpshufb %xmm0, %xmm5, %xmm5 movdqu %xmm4, 48(%rbp) vpshufb %xmm0, %xmm6, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm2, %xmm2 movdqu %xmm6, 80(%rbp) vpshufb %xmm0, %xmm3, %xmm3 movdqu %xmm2, 96(%rbp) movdqu %xmm3, 112(%rbp) pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) cmp $6, %rdx jne L210 sub $96, %r14 jmp L211 L210: L211: jmp L213 .balign 16 L212: add $6, %rbx cmp $256, %rbx jb L214 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L215 L214: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L215: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 48(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 64(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 80(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 96(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx cmp $6, %rdx jbe L216 add $96, %r14 jmp L217 L216: L217: cmp $0, %rdx jbe L218 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L219 L218: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L219: .balign 16 L213: cmp $0, %rdx ja L212 movdqu %xmm1, 32(%rbp) movdqu %xmm9, -96(%rsi) movdqu %xmm10, -80(%rsi) movdqu %xmm11, -64(%rsi) movdqu %xmm12, -48(%rsi) movdqu %xmm13, -32(%rsi) movdqu %xmm14, -16(%rsi) sub $128, %rcx L209: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 312(%rsp), %rax mov 320(%rsp), %rdi mov 328(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 mov %rdi, %rbx mov %rdx, %r12 mov %rax, %rdi mov %rdi, %r11 jmp L221 .balign 16 L220: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L221: cmp $6, %rdx jae L220 cmp $0, %rdx jbe L222 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L224 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L225 L224: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L226 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L228 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L230 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L231 L230: L231: jmp L229 L228: L229: jmp L227 L226: L227: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L225: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L223 L222: L223: mov %rbx, %rdi mov %r12, %rdx pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L233 .balign 16 L232: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L233: cmp %rdx, %rbx jne L232 add 304(%rsp), %r14 imul $16, %r14 mov 344(%rsp), %r13 cmp %r14, %r13 jbe L234 mov 336(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu 0(%rax), %xmm0 movdqu %xmm0, %xmm10 cmp $8, %r10 jae L236 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L237 L236: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L237: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm10 movdqu %xmm10, 0(%rax) jmp L235 L234: L235: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 360(%rsp), %r15 movdqu 0(%r15), %xmm0 pcmpeqd %xmm8, %xmm0 pextrq $0, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rax adc $0, %rax pextrq $1, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rdx adc $0, %rdx add %rdx, %rax mov %rax, %rcx pop %rax pinsrq $1, %rax, %xmm6 pop %rax pinsrq $0, %rax, %xmm6 pop %rax pinsrq $1, %rax, %xmm7 pop %rax pinsrq $0, %rax, %xmm7 pop %rax pinsrq $1, %rax, %xmm8 pop %rax pinsrq $0, %rax, %xmm8 pop %rax pinsrq $1, %rax, %xmm9 pop %rax pinsrq $0, %rax, %xmm9 pop %rax pinsrq $1, %rax, %xmm10 pop %rax pinsrq $0, %rax, %xmm10 pop %rax pinsrq $1, %rax, %xmm11 pop %rax pinsrq $0, %rax, %xmm11 pop %rax pinsrq $1, %rax, %xmm12 pop %rax pinsrq $0, %rax, %xmm12 pop %rax pinsrq $1, %rax, %xmm13 pop %rax pinsrq $0, %rax, %xmm13 pop %rax pinsrq $1, %rax, %xmm14 pop %rax pinsrq $0, %rax, %xmm14 pop %rax pinsrq $1, %rax, %xmm15 pop %rax pinsrq $0, %rax, %xmm15 pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 mov %rcx, %rax ret
usenix-security-verdict/verdict
2,368
deps/libcrux/sys/hacl/c/vale/src/cpuid-x86_64-darwin.S
.text .global _check_aesni _check_aesni: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $33554432, %rax shr $24, %rax and $2, %rcx and %rcx, %rax mov %r9, %rbx ret .global _check_sha _check_sha: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid and $536870912, %rbx mov %rbx, %rax mov %r9, %rbx ret .global _check_adx_bmi2 _check_adx_bmi2: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid mov %rbx, %rax and $524288, %rax shr $11, %rax and $256, %rbx and %rbx, %rax mov %r9, %rbx ret .global _check_avx _check_avx: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $268435456, %rax shr $27, %rax mov %r9, %rbx ret .global _check_avx2 _check_avx2: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid and $32, %rbx mov %rbx, %rax mov %r9, %rbx ret .global _check_movbe _check_movbe: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $4194304, %rax shr $21, %rax mov %r9, %rbx ret .global _check_sse _check_sse: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $524288, %rax and $512, %rcx and $67108864, %rdx shr $10, %rax shr $17, %rdx and %rdx, %rax and %rcx, %rax mov %r9, %rbx ret .global _check_rdrand _check_rdrand: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $1073741824, %rax shr $29, %rax mov %r9, %rbx ret .global _check_avx512 _check_avx512: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid mov %rbx, %rax mov %rbx, %r10 mov %rbx, %r11 and $65536, %rbx and $131072, %rax and $1073741824, %r10 shr $1, %rax shr $14, %r10 and %rbx, %rax mov $2147483648, %rbx and %rbx, %r11 shr $15, %r11 and %r10, %rax and %r11, %rax mov %r9, %rbx ret .global _check_osxsave _check_osxsave: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $134217728, %rax shr $26, %rax mov %r9, %rbx ret .global _check_avx_xcr0 _check_avx_xcr0: mov $0, %rcx xgetbv mov %rax, %rcx and $4, %rax shr $1, %rax and $2, %rcx and %rcx, %rax ret .global _check_avx512_xcr0 _check_avx512_xcr0: mov $0, %rcx xgetbv mov %rax, %rcx mov %rax, %rdx and $32, %rax and $64, %rcx and $128, %rdx shr $2, %rdx shr $1, %rcx and %rdx, %rax and %rcx, %rax ret
usenix-security-verdict/verdict
2,381
deps/libcrux/sys/hacl/c/vale/src/cpuid-x86_64-linux.S
.text .global check_aesni check_aesni: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $33554432, %rax shr $24, %rax and $2, %rcx and %rcx, %rax mov %r9, %rbx ret .global check_sha check_sha: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid and $536870912, %rbx mov %rbx, %rax mov %r9, %rbx ret .global check_adx_bmi2 check_adx_bmi2: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid mov %rbx, %rax and $524288, %rax shr $11, %rax and $256, %rbx and %rbx, %rax mov %r9, %rbx ret .global check_avx check_avx: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $268435456, %rax shr $27, %rax mov %r9, %rbx ret .global check_avx2 check_avx2: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid and $32, %rbx mov %rbx, %rax mov %r9, %rbx ret .global check_movbe check_movbe: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $4194304, %rax shr $21, %rax mov %r9, %rbx ret .global check_sse check_sse: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $524288, %rax and $512, %rcx and $67108864, %rdx shr $10, %rax shr $17, %rdx and %rdx, %rax and %rcx, %rax mov %r9, %rbx ret .global check_rdrand check_rdrand: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $1073741824, %rax shr $29, %rax mov %r9, %rbx ret .global check_avx512 check_avx512: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid mov %rbx, %rax mov %rbx, %r10 mov %rbx, %r11 and $65536, %rbx and $131072, %rax and $1073741824, %r10 shr $1, %rax shr $14, %r10 and %rbx, %rax mov $2147483648, %rbx and %rbx, %r11 shr $15, %r11 and %r10, %rax and %r11, %rax mov %r9, %rbx ret .global check_osxsave check_osxsave: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $134217728, %rax shr $26, %rax mov %r9, %rbx ret .global check_avx_xcr0 check_avx_xcr0: mov $0, %rcx xgetbv mov %rax, %rcx and $4, %rax shr $1, %rax and $2, %rcx and %rcx, %rax ret .global check_avx512_xcr0 check_avx512_xcr0: mov $0, %rcx xgetbv mov %rax, %rcx mov %rax, %rdx and $32, %rax and $64, %rcx and $128, %rdx shr $2, %rdx shr $1, %rcx and %rdx, %rax and %rcx, %rax ret .section .note.GNU-stack,"",%progbits
usenix-security-verdict/verdict
18,944
deps/libcrux/sys/hacl/c/vale/src/curve25519-x86_64-linux.S
.text .global add_scalar_e add_scalar_e: push %rdi push %rsi ;# Clear registers to propagate the carry bit xor %r8d, %r8d xor %r9d, %r9d xor %r10d, %r10d xor %r11d, %r11d xor %eax, %eax ;# Begin addition chain addq 0(%rsi), %rdx movq %rdx, 0(%rdi) adcxq 8(%rsi), %r8 movq %r8, 8(%rdi) adcxq 16(%rsi), %r9 movq %r9, 16(%rdi) adcxq 24(%rsi), %r10 movq %r10, 24(%rdi) ;# Return the carry bit in a register adcx %r11, %rax pop %rsi pop %rdi ret .global fadd_e fadd_e: ;# Compute the raw addition of f1 + f2 movq 0(%rdx), %r8 addq 0(%rsi), %r8 movq 8(%rdx), %r9 adcxq 8(%rsi), %r9 movq 16(%rdx), %r10 adcxq 16(%rsi), %r10 movq 24(%rdx), %r11 adcxq 24(%rsi), %r11 ;# Wrap the result back into the field ;# Step 1: Compute carry*38 mov $0, %rax mov $38, %rdx cmovc %rdx, %rax ;# Step 2: Add carry*38 to the original sum xor %ecx, %ecx add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) ret .global fsub_e fsub_e: ;# Compute the raw substraction of f1-f2 movq 0(%rsi), %r8 subq 0(%rdx), %r8 movq 8(%rsi), %r9 sbbq 8(%rdx), %r9 movq 16(%rsi), %r10 sbbq 16(%rdx), %r10 movq 24(%rsi), %r11 sbbq 24(%rdx), %r11 ;# Wrap the result back into the field ;# Step 1: Compute carry*38 mov $0, %rax mov $38, %rcx cmovc %rcx, %rax ;# Step 2: Substract carry*38 from the original difference sub %rax, %r8 sbb $0, %r9 sbb $0, %r10 sbb $0, %r11 ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rcx, %rax sub %rax, %r8 ;# Store the result movq %r8, 0(%rdi) movq %r9, 8(%rdi) movq %r10, 16(%rdi) movq %r11, 24(%rdi) ret .global fmul_scalar_e fmul_scalar_e: push %rdi push %r13 push %rbx ;# Compute the raw multiplication of f1*f2 mulxq 0(%rsi), %r8, %rcx ;# f1[0]*f2 mulxq 8(%rsi), %r9, %rbx ;# f1[1]*f2 add %rcx, %r9 mov $0, %rcx mulxq 16(%rsi), %r10, %r13 ;# f1[2]*f2 adcx %rbx, %r10 mulxq 24(%rsi), %r11, %rax ;# f1[3]*f2 adcx %r13, %r11 adcx %rcx, %rax ;# Wrap the result back into the field ;# Step 1: Compute carry*38 mov $38, %rdx imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rbx pop %r13 pop %rdi ret .global fmul_e fmul_e: push %r13 push %r14 push %r15 push %rbx mov %rdx, %r15 ;# Compute the raw multiplication: tmp <- src1 * src2 ;# Compute src1[0] * src2 movq 0(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d movq %r8, 0(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 movq %r10, 8(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 mov $0, %rax adox %rdx, %rax ;# Compute src1[1] * src2 movq 8(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 8(%rdi), %r8 movq %r8, 8(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 16(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[2] * src2 movq 16(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 16(%rdi), %r8 movq %r8, 16(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 24(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[3] * src2 movq 24(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 24(%rdi), %r8 movq %r8, 24(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 32(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx movq %rbx, 40(%rdi) mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 movq %r14, 48(%rdi) mov $0, %rax adox %rdx, %rax adcx %r8, %rax movq %rax, 56(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r15, %rdi ;# Wrap the result back into the field ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rbx pop %r15 pop %r14 pop %r13 ret .global fmul2_e fmul2_e: push %r13 push %r14 push %r15 push %rbx mov %rdx, %r15 ;# Compute the raw multiplication tmp[0] <- f1[0] * f2[0] ;# Compute src1[0] * src2 movq 0(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d movq %r8, 0(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 movq %r10, 8(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 mov $0, %rax adox %rdx, %rax ;# Compute src1[1] * src2 movq 8(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 8(%rdi), %r8 movq %r8, 8(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 16(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[2] * src2 movq 16(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 16(%rdi), %r8 movq %r8, 16(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 24(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[3] * src2 movq 24(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 24(%rdi), %r8 movq %r8, 24(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 32(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx movq %rbx, 40(%rdi) mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 movq %r14, 48(%rdi) mov $0, %rax adox %rdx, %rax adcx %r8, %rax movq %rax, 56(%rdi) ;# Compute the raw multiplication tmp[1] <- f1[1] * f2[1] ;# Compute src1[0] * src2 movq 32(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d movq %r8, 64(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 movq %r10, 72(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 mov $0, %rax adox %rdx, %rax ;# Compute src1[1] * src2 movq 40(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 72(%rdi), %r8 movq %r8, 72(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 80(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[2] * src2 movq 48(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 80(%rdi), %r8 movq %r8, 80(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 88(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[3] * src2 movq 56(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 88(%rdi), %r8 movq %r8, 88(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 96(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx movq %rbx, 104(%rdi) mov $0, %r8 mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 movq %r14, 112(%rdi) mov $0, %rax adox %rdx, %rax adcx %r8, %rax movq %rax, 120(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r15, %rdi ;# Wrap the results back into the field ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 96(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 64(%rsi), %r8 mulxq 104(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 72(%rsi), %r9 mulxq 112(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 80(%rsi), %r10 mulxq 120(%rsi), %r11, %rax adcx %r13, %r11 adoxq 88(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 40(%rdi) adcx %rcx, %r10 movq %r10, 48(%rdi) adcx %rcx, %r11 movq %r11, 56(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 32(%rdi) pop %rbx pop %r15 pop %r14 pop %r13 ret .global fsqr_e fsqr_e: push %r15 push %r13 push %r14 push %r12 push %rbx mov %rdx, %r12 ;# Compute the raw multiplication: tmp <- f * f ;# Step 1: Compute all partial products movq 0(%rsi), %rdx ;# f[0] mulxq 8(%rsi), %r8, %r14 xor %r15d, %r15d ;# f[1]*f[0] mulxq 16(%rsi), %r9, %r10 adcx %r14, %r9 ;# f[2]*f[0] mulxq 24(%rsi), %rax, %rcx adcx %rax, %r10 ;# f[3]*f[0] movq 24(%rsi), %rdx ;# f[3] mulxq 8(%rsi), %r11, %rbx adcx %rcx, %r11 ;# f[1]*f[3] mulxq 16(%rsi), %rax, %r13 adcx %rax, %rbx ;# f[2]*f[3] movq 8(%rsi), %rdx adcx %r15, %r13 ;# f1 mulxq 16(%rsi), %rax, %rcx mov $0, %r14 ;# f[2]*f[1] ;# Step 2: Compute two parallel carry chains xor %r15d, %r15d adox %rax, %r10 adcx %r8, %r8 adox %rcx, %r11 adcx %r9, %r9 adox %r15, %rbx adcx %r10, %r10 adox %r15, %r13 adcx %r11, %r11 adox %r15, %r14 adcx %rbx, %rbx adcx %r13, %r13 adcx %r14, %r14 ;# Step 3: Compute intermediate squares movq 0(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[0]^2 movq %rax, 0(%rdi) add %rcx, %r8 movq %r8, 8(%rdi) movq 8(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[1]^2 adcx %rax, %r9 movq %r9, 16(%rdi) adcx %rcx, %r10 movq %r10, 24(%rdi) movq 16(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[2]^2 adcx %rax, %r11 movq %r11, 32(%rdi) adcx %rcx, %rbx movq %rbx, 40(%rdi) movq 24(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[3]^2 adcx %rax, %r13 movq %r13, 48(%rdi) adcx %rcx, %r14 movq %r14, 56(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r12, %rdi ;# Wrap the result back into the field ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rbx pop %r12 pop %r14 pop %r13 pop %r15 ret .global fsqr2_e fsqr2_e: push %r15 push %r13 push %r14 push %r12 push %rbx mov %rdx, %r12 ;# Step 1: Compute all partial products movq 0(%rsi), %rdx ;# f[0] mulxq 8(%rsi), %r8, %r14 xor %r15d, %r15d ;# f[1]*f[0] mulxq 16(%rsi), %r9, %r10 adcx %r14, %r9 ;# f[2]*f[0] mulxq 24(%rsi), %rax, %rcx adcx %rax, %r10 ;# f[3]*f[0] movq 24(%rsi), %rdx ;# f[3] mulxq 8(%rsi), %r11, %rbx adcx %rcx, %r11 ;# f[1]*f[3] mulxq 16(%rsi), %rax, %r13 adcx %rax, %rbx ;# f[2]*f[3] movq 8(%rsi), %rdx adcx %r15, %r13 ;# f1 mulxq 16(%rsi), %rax, %rcx mov $0, %r14 ;# f[2]*f[1] ;# Step 2: Compute two parallel carry chains xor %r15d, %r15d adox %rax, %r10 adcx %r8, %r8 adox %rcx, %r11 adcx %r9, %r9 adox %r15, %rbx adcx %r10, %r10 adox %r15, %r13 adcx %r11, %r11 adox %r15, %r14 adcx %rbx, %rbx adcx %r13, %r13 adcx %r14, %r14 ;# Step 3: Compute intermediate squares movq 0(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[0]^2 movq %rax, 0(%rdi) add %rcx, %r8 movq %r8, 8(%rdi) movq 8(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[1]^2 adcx %rax, %r9 movq %r9, 16(%rdi) adcx %rcx, %r10 movq %r10, 24(%rdi) movq 16(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[2]^2 adcx %rax, %r11 movq %r11, 32(%rdi) adcx %rcx, %rbx movq %rbx, 40(%rdi) movq 24(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[3]^2 adcx %rax, %r13 movq %r13, 48(%rdi) adcx %rcx, %r14 movq %r14, 56(%rdi) ;# Step 1: Compute all partial products movq 32(%rsi), %rdx ;# f[0] mulxq 40(%rsi), %r8, %r14 xor %r15d, %r15d ;# f[1]*f[0] mulxq 48(%rsi), %r9, %r10 adcx %r14, %r9 ;# f[2]*f[0] mulxq 56(%rsi), %rax, %rcx adcx %rax, %r10 ;# f[3]*f[0] movq 56(%rsi), %rdx ;# f[3] mulxq 40(%rsi), %r11, %rbx adcx %rcx, %r11 ;# f[1]*f[3] mulxq 48(%rsi), %rax, %r13 adcx %rax, %rbx ;# f[2]*f[3] movq 40(%rsi), %rdx adcx %r15, %r13 ;# f1 mulxq 48(%rsi), %rax, %rcx mov $0, %r14 ;# f[2]*f[1] ;# Step 2: Compute two parallel carry chains xor %r15d, %r15d adox %rax, %r10 adcx %r8, %r8 adox %rcx, %r11 adcx %r9, %r9 adox %r15, %rbx adcx %r10, %r10 adox %r15, %r13 adcx %r11, %r11 adox %r15, %r14 adcx %rbx, %rbx adcx %r13, %r13 adcx %r14, %r14 ;# Step 3: Compute intermediate squares movq 32(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[0]^2 movq %rax, 64(%rdi) add %rcx, %r8 movq %r8, 72(%rdi) movq 40(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[1]^2 adcx %rax, %r9 movq %r9, 80(%rdi) adcx %rcx, %r10 movq %r10, 88(%rdi) movq 48(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[2]^2 adcx %rax, %r11 movq %r11, 96(%rdi) adcx %rcx, %rbx movq %rbx, 104(%rdi) movq 56(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[3]^2 adcx %rax, %r13 movq %r13, 112(%rdi) adcx %rcx, %r14 movq %r14, 120(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r12, %rdi ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 96(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 64(%rsi), %r8 mulxq 104(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 72(%rsi), %r9 mulxq 112(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 80(%rsi), %r10 mulxq 120(%rsi), %r11, %rax adcx %r13, %r11 adoxq 88(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 40(%rdi) adcx %rcx, %r10 movq %r10, 48(%rdi) adcx %rcx, %r11 movq %r11, 56(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 32(%rdi) pop %rbx pop %r12 pop %r14 pop %r13 pop %r15 ret .global cswap2_e cswap2_e: ;# Transfer bit into CF flag add $18446744073709551615, %rdi ;# cswap p1[0], p2[0] movq 0(%rsi), %r8 movq 0(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 0(%rsi) movq %r9, 0(%rdx) ;# cswap p1[1], p2[1] movq 8(%rsi), %r8 movq 8(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 8(%rsi) movq %r9, 8(%rdx) ;# cswap p1[2], p2[2] movq 16(%rsi), %r8 movq 16(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 16(%rsi) movq %r9, 16(%rdx) ;# cswap p1[3], p2[3] movq 24(%rsi), %r8 movq 24(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 24(%rsi) movq %r9, 24(%rdx) ;# cswap p1[4], p2[4] movq 32(%rsi), %r8 movq 32(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 32(%rsi) movq %r9, 32(%rdx) ;# cswap p1[5], p2[5] movq 40(%rsi), %r8 movq 40(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 40(%rsi) movq %r9, 40(%rdx) ;# cswap p1[6], p2[6] movq 48(%rsi), %r8 movq 48(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 48(%rsi) movq %r9, 48(%rdx) ;# cswap p1[7], p2[7] movq 56(%rsi), %r8 movq 56(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 56(%rsi) movq %r9, 56(%rdx) ret .section .note.GNU-stack,"",%progbits
usenix-security-verdict/verdict
2,344
deps/libcrux/sys/hacl/c/vale/src/cpuid-x86_64-mingw.S
.text .global check_aesni check_aesni: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $33554432, %rax shr $24, %rax and $2, %rcx and %rcx, %rax mov %r9, %rbx ret .global check_sha check_sha: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid and $536870912, %rbx mov %rbx, %rax mov %r9, %rbx ret .global check_adx_bmi2 check_adx_bmi2: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid mov %rbx, %rax and $524288, %rax shr $11, %rax and $256, %rbx and %rbx, %rax mov %r9, %rbx ret .global check_avx check_avx: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $268435456, %rax shr $27, %rax mov %r9, %rbx ret .global check_avx2 check_avx2: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid and $32, %rbx mov %rbx, %rax mov %r9, %rbx ret .global check_movbe check_movbe: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $4194304, %rax shr $21, %rax mov %r9, %rbx ret .global check_sse check_sse: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $524288, %rax and $512, %rcx and $67108864, %rdx shr $10, %rax shr $17, %rdx and %rdx, %rax and %rcx, %rax mov %r9, %rbx ret .global check_rdrand check_rdrand: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $1073741824, %rax shr $29, %rax mov %r9, %rbx ret .global check_avx512 check_avx512: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid mov %rbx, %rax mov %rbx, %r10 mov %rbx, %r11 and $65536, %rbx and $131072, %rax and $1073741824, %r10 shr $1, %rax shr $14, %r10 and %rbx, %rax mov $2147483648, %rbx and %rbx, %r11 shr $15, %r11 and %r10, %rax and %r11, %rax mov %r9, %rbx ret .global check_osxsave check_osxsave: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $134217728, %rax shr $26, %rax mov %r9, %rbx ret .global check_avx_xcr0 check_avx_xcr0: mov $0, %rcx xgetbv mov %rax, %rcx and $4, %rax shr $1, %rax and $2, %rcx and %rcx, %rax ret .global check_avx512_xcr0 check_avx512_xcr0: mov $0, %rcx xgetbv mov %rax, %rcx mov %rax, %rdx and $32, %rax and $64, %rcx and $128, %rdx shr $2, %rdx shr $1, %rcx and %rdx, %rax and %rcx, %rax ret
usenix-security-verdict/verdict
19,666
deps/libcrux/sys/hacl/c/vale/src/curve25519-x86_64-mingw.S
.text .global add_scalar_e add_scalar_e: push %rdi push %rsi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx ;# Clear registers to propagate the carry bit xor %r8d, %r8d xor %r9d, %r9d xor %r10d, %r10d xor %r11d, %r11d xor %eax, %eax ;# Begin addition chain addq 0(%rsi), %rdx movq %rdx, 0(%rdi) adcxq 8(%rsi), %r8 movq %r8, 8(%rdi) adcxq 16(%rsi), %r9 movq %r9, 16(%rdi) adcxq 24(%rsi), %r10 movq %r10, 24(%rdi) ;# Return the carry bit in a register adcx %r11, %rax pop %rsi pop %rdi ret .global fadd_e fadd_e: push %rdi push %rsi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx ;# Compute the raw addition of f1 + f2 movq 0(%rdx), %r8 addq 0(%rsi), %r8 movq 8(%rdx), %r9 adcxq 8(%rsi), %r9 movq 16(%rdx), %r10 adcxq 16(%rsi), %r10 movq 24(%rdx), %r11 adcxq 24(%rsi), %r11 ;# Wrap the result back into the field ;# Step 1: Compute carry*38 mov $0, %rax mov $38, %rdx cmovc %rdx, %rax ;# Step 2: Add carry*38 to the original sum xor %ecx, %ecx add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rsi pop %rdi ret .global fsub_e fsub_e: push %rdi push %rsi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx ;# Compute the raw substraction of f1-f2 movq 0(%rsi), %r8 subq 0(%rdx), %r8 movq 8(%rsi), %r9 sbbq 8(%rdx), %r9 movq 16(%rsi), %r10 sbbq 16(%rdx), %r10 movq 24(%rsi), %r11 sbbq 24(%rdx), %r11 ;# Wrap the result back into the field ;# Step 1: Compute carry*38 mov $0, %rax mov $38, %rcx cmovc %rcx, %rax ;# Step 2: Substract carry*38 from the original difference sub %rax, %r8 sbb $0, %r9 sbb $0, %r10 sbb $0, %r11 ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rcx, %rax sub %rax, %r8 ;# Store the result movq %r8, 0(%rdi) movq %r9, 8(%rdi) movq %r10, 16(%rdi) movq %r11, 24(%rdi) pop %rsi pop %rdi ret .global fmul_scalar_e fmul_scalar_e: push %rdi push %r13 push %rbx push %rsi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx ;# Compute the raw multiplication of f1*f2 mulxq 0(%rsi), %r8, %rcx ;# f1[0]*f2 mulxq 8(%rsi), %r9, %rbx ;# f1[1]*f2 add %rcx, %r9 mov $0, %rcx mulxq 16(%rsi), %r10, %r13 ;# f1[2]*f2 adcx %rbx, %r10 mulxq 24(%rsi), %r11, %rax ;# f1[3]*f2 adcx %r13, %r11 adcx %rcx, %rax ;# Wrap the result back into the field ;# Step 1: Compute carry*38 mov $38, %rdx imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rsi pop %rbx pop %r13 pop %rdi ret .global fmul_e fmul_e: push %r13 push %r14 push %r15 push %rbx push %rsi push %rdi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %r15 mov %r9, %rcx ;# Compute the raw multiplication: tmp <- src1 * src2 ;# Compute src1[0] * src2 movq 0(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d movq %r8, 0(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 movq %r10, 8(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 mov $0, %rax adox %rdx, %rax ;# Compute src1[1] * src2 movq 8(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 8(%rdi), %r8 movq %r8, 8(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 16(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[2] * src2 movq 16(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 16(%rdi), %r8 movq %r8, 16(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 24(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[3] * src2 movq 24(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 24(%rdi), %r8 movq %r8, 24(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 32(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx movq %rbx, 40(%rdi) mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 movq %r14, 48(%rdi) mov $0, %rax adox %rdx, %rax adcx %r8, %rax movq %rax, 56(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r15, %rdi ;# Wrap the result back into the field ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rdi pop %rsi pop %rbx pop %r15 pop %r14 pop %r13 ret .global fmul2_e fmul2_e: push %r13 push %r14 push %r15 push %rbx push %rsi push %rdi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %r15 mov %r9, %rcx ;# Compute the raw multiplication tmp[0] <- f1[0] * f2[0] ;# Compute src1[0] * src2 movq 0(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d movq %r8, 0(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 movq %r10, 8(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 mov $0, %rax adox %rdx, %rax ;# Compute src1[1] * src2 movq 8(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 8(%rdi), %r8 movq %r8, 8(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 16(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[2] * src2 movq 16(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 16(%rdi), %r8 movq %r8, 16(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 24(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[3] * src2 movq 24(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 24(%rdi), %r8 movq %r8, 24(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 32(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx movq %rbx, 40(%rdi) mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 movq %r14, 48(%rdi) mov $0, %rax adox %rdx, %rax adcx %r8, %rax movq %rax, 56(%rdi) ;# Compute the raw multiplication tmp[1] <- f1[1] * f2[1] ;# Compute src1[0] * src2 movq 32(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d movq %r8, 64(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 movq %r10, 72(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 mov $0, %rax adox %rdx, %rax ;# Compute src1[1] * src2 movq 40(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 72(%rdi), %r8 movq %r8, 72(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 80(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[2] * src2 movq 48(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 80(%rdi), %r8 movq %r8, 80(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 88(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[3] * src2 movq 56(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 88(%rdi), %r8 movq %r8, 88(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 96(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx movq %rbx, 104(%rdi) mov $0, %r8 mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 movq %r14, 112(%rdi) mov $0, %rax adox %rdx, %rax adcx %r8, %rax movq %rax, 120(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r15, %rdi ;# Wrap the results back into the field ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 96(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 64(%rsi), %r8 mulxq 104(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 72(%rsi), %r9 mulxq 112(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 80(%rsi), %r10 mulxq 120(%rsi), %r11, %rax adcx %r13, %r11 adoxq 88(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 40(%rdi) adcx %rcx, %r10 movq %r10, 48(%rdi) adcx %rcx, %r11 movq %r11, 56(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 32(%rdi) pop %rdi pop %rsi pop %rbx pop %r15 pop %r14 pop %r13 ret .global fsqr_e fsqr_e: push %r15 push %r13 push %r14 push %r12 push %rbx push %rsi push %rdi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %r12 ;# Compute the raw multiplication: tmp <- f * f ;# Step 1: Compute all partial products movq 0(%rsi), %rdx ;# f[0] mulxq 8(%rsi), %r8, %r14 xor %r15d, %r15d ;# f[1]*f[0] mulxq 16(%rsi), %r9, %r10 adcx %r14, %r9 ;# f[2]*f[0] mulxq 24(%rsi), %rax, %rcx adcx %rax, %r10 ;# f[3]*f[0] movq 24(%rsi), %rdx ;# f[3] mulxq 8(%rsi), %r11, %rbx adcx %rcx, %r11 ;# f[1]*f[3] mulxq 16(%rsi), %rax, %r13 adcx %rax, %rbx ;# f[2]*f[3] movq 8(%rsi), %rdx adcx %r15, %r13 ;# f1 mulxq 16(%rsi), %rax, %rcx mov $0, %r14 ;# f[2]*f[1] ;# Step 2: Compute two parallel carry chains xor %r15d, %r15d adox %rax, %r10 adcx %r8, %r8 adox %rcx, %r11 adcx %r9, %r9 adox %r15, %rbx adcx %r10, %r10 adox %r15, %r13 adcx %r11, %r11 adox %r15, %r14 adcx %rbx, %rbx adcx %r13, %r13 adcx %r14, %r14 ;# Step 3: Compute intermediate squares movq 0(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[0]^2 movq %rax, 0(%rdi) add %rcx, %r8 movq %r8, 8(%rdi) movq 8(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[1]^2 adcx %rax, %r9 movq %r9, 16(%rdi) adcx %rcx, %r10 movq %r10, 24(%rdi) movq 16(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[2]^2 adcx %rax, %r11 movq %r11, 32(%rdi) adcx %rcx, %rbx movq %rbx, 40(%rdi) movq 24(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[3]^2 adcx %rax, %r13 movq %r13, 48(%rdi) adcx %rcx, %r14 movq %r14, 56(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r12, %rdi ;# Wrap the result back into the field ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rdi pop %rsi pop %rbx pop %r12 pop %r14 pop %r13 pop %r15 ret .global fsqr2_e fsqr2_e: push %r15 push %r13 push %r14 push %r12 push %rbx push %rsi push %rdi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %r12 ;# Step 1: Compute all partial products movq 0(%rsi), %rdx ;# f[0] mulxq 8(%rsi), %r8, %r14 xor %r15d, %r15d ;# f[1]*f[0] mulxq 16(%rsi), %r9, %r10 adcx %r14, %r9 ;# f[2]*f[0] mulxq 24(%rsi), %rax, %rcx adcx %rax, %r10 ;# f[3]*f[0] movq 24(%rsi), %rdx ;# f[3] mulxq 8(%rsi), %r11, %rbx adcx %rcx, %r11 ;# f[1]*f[3] mulxq 16(%rsi), %rax, %r13 adcx %rax, %rbx ;# f[2]*f[3] movq 8(%rsi), %rdx adcx %r15, %r13 ;# f1 mulxq 16(%rsi), %rax, %rcx mov $0, %r14 ;# f[2]*f[1] ;# Step 2: Compute two parallel carry chains xor %r15d, %r15d adox %rax, %r10 adcx %r8, %r8 adox %rcx, %r11 adcx %r9, %r9 adox %r15, %rbx adcx %r10, %r10 adox %r15, %r13 adcx %r11, %r11 adox %r15, %r14 adcx %rbx, %rbx adcx %r13, %r13 adcx %r14, %r14 ;# Step 3: Compute intermediate squares movq 0(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[0]^2 movq %rax, 0(%rdi) add %rcx, %r8 movq %r8, 8(%rdi) movq 8(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[1]^2 adcx %rax, %r9 movq %r9, 16(%rdi) adcx %rcx, %r10 movq %r10, 24(%rdi) movq 16(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[2]^2 adcx %rax, %r11 movq %r11, 32(%rdi) adcx %rcx, %rbx movq %rbx, 40(%rdi) movq 24(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[3]^2 adcx %rax, %r13 movq %r13, 48(%rdi) adcx %rcx, %r14 movq %r14, 56(%rdi) ;# Step 1: Compute all partial products movq 32(%rsi), %rdx ;# f[0] mulxq 40(%rsi), %r8, %r14 xor %r15d, %r15d ;# f[1]*f[0] mulxq 48(%rsi), %r9, %r10 adcx %r14, %r9 ;# f[2]*f[0] mulxq 56(%rsi), %rax, %rcx adcx %rax, %r10 ;# f[3]*f[0] movq 56(%rsi), %rdx ;# f[3] mulxq 40(%rsi), %r11, %rbx adcx %rcx, %r11 ;# f[1]*f[3] mulxq 48(%rsi), %rax, %r13 adcx %rax, %rbx ;# f[2]*f[3] movq 40(%rsi), %rdx adcx %r15, %r13 ;# f1 mulxq 48(%rsi), %rax, %rcx mov $0, %r14 ;# f[2]*f[1] ;# Step 2: Compute two parallel carry chains xor %r15d, %r15d adox %rax, %r10 adcx %r8, %r8 adox %rcx, %r11 adcx %r9, %r9 adox %r15, %rbx adcx %r10, %r10 adox %r15, %r13 adcx %r11, %r11 adox %r15, %r14 adcx %rbx, %rbx adcx %r13, %r13 adcx %r14, %r14 ;# Step 3: Compute intermediate squares movq 32(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[0]^2 movq %rax, 64(%rdi) add %rcx, %r8 movq %r8, 72(%rdi) movq 40(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[1]^2 adcx %rax, %r9 movq %r9, 80(%rdi) adcx %rcx, %r10 movq %r10, 88(%rdi) movq 48(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[2]^2 adcx %rax, %r11 movq %r11, 96(%rdi) adcx %rcx, %rbx movq %rbx, 104(%rdi) movq 56(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[3]^2 adcx %rax, %r13 movq %r13, 112(%rdi) adcx %rcx, %r14 movq %r14, 120(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r12, %rdi ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 96(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 64(%rsi), %r8 mulxq 104(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 72(%rsi), %r9 mulxq 112(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 80(%rsi), %r10 mulxq 120(%rsi), %r11, %rax adcx %r13, %r11 adoxq 88(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 40(%rdi) adcx %rcx, %r10 movq %r10, 48(%rdi) adcx %rcx, %r11 movq %r11, 56(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 32(%rdi) pop %rdi pop %rsi pop %rbx pop %r12 pop %r14 pop %r13 pop %r15 ret .global cswap2_e cswap2_e: push %rdi push %rsi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx ;# Transfer bit into CF flag add $18446744073709551615, %rdi ;# cswap p1[0], p2[0] movq 0(%rsi), %r8 movq 0(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 0(%rsi) movq %r9, 0(%rdx) ;# cswap p1[1], p2[1] movq 8(%rsi), %r8 movq 8(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 8(%rsi) movq %r9, 8(%rdx) ;# cswap p1[2], p2[2] movq 16(%rsi), %r8 movq 16(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 16(%rsi) movq %r9, 16(%rdx) ;# cswap p1[3], p2[3] movq 24(%rsi), %r8 movq 24(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 24(%rsi) movq %r9, 24(%rdx) ;# cswap p1[4], p2[4] movq 32(%rsi), %r8 movq 32(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 32(%rsi) movq %r9, 32(%rdx) ;# cswap p1[5], p2[5] movq 40(%rsi), %r8 movq 40(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 40(%rsi) movq %r9, 40(%rdx) ;# cswap p1[6], p2[6] movq 48(%rsi), %r8 movq 48(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 48(%rsi) movq %r9, 48(%rdx) ;# cswap p1[7], p2[7] movq 56(%rsi), %r8 movq 56(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 56(%rsi) movq %r9, 56(%rdx) pop %rsi pop %rdi ret
usenix-security-verdict/verdict
18,925
deps/libcrux/sys/hacl/c/vale/src/curve25519-x86_64-darwin.S
.text .global _add_scalar_e _add_scalar_e: push %rdi push %rsi ;# Clear registers to propagate the carry bit xor %r8d, %r8d xor %r9d, %r9d xor %r10d, %r10d xor %r11d, %r11d xor %eax, %eax ;# Begin addition chain addq 0(%rsi), %rdx movq %rdx, 0(%rdi) adcxq 8(%rsi), %r8 movq %r8, 8(%rdi) adcxq 16(%rsi), %r9 movq %r9, 16(%rdi) adcxq 24(%rsi), %r10 movq %r10, 24(%rdi) ;# Return the carry bit in a register adcx %r11, %rax pop %rsi pop %rdi ret .global _fadd_e _fadd_e: ;# Compute the raw addition of f1 + f2 movq 0(%rdx), %r8 addq 0(%rsi), %r8 movq 8(%rdx), %r9 adcxq 8(%rsi), %r9 movq 16(%rdx), %r10 adcxq 16(%rsi), %r10 movq 24(%rdx), %r11 adcxq 24(%rsi), %r11 ;# Wrap the result back into the field ;# Step 1: Compute carry*38 mov $0, %rax mov $38, %rdx cmovc %rdx, %rax ;# Step 2: Add carry*38 to the original sum xor %ecx, %ecx add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) ret .global _fsub_e _fsub_e: ;# Compute the raw substraction of f1-f2 movq 0(%rsi), %r8 subq 0(%rdx), %r8 movq 8(%rsi), %r9 sbbq 8(%rdx), %r9 movq 16(%rsi), %r10 sbbq 16(%rdx), %r10 movq 24(%rsi), %r11 sbbq 24(%rdx), %r11 ;# Wrap the result back into the field ;# Step 1: Compute carry*38 mov $0, %rax mov $38, %rcx cmovc %rcx, %rax ;# Step 2: Substract carry*38 from the original difference sub %rax, %r8 sbb $0, %r9 sbb $0, %r10 sbb $0, %r11 ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rcx, %rax sub %rax, %r8 ;# Store the result movq %r8, 0(%rdi) movq %r9, 8(%rdi) movq %r10, 16(%rdi) movq %r11, 24(%rdi) ret .global _fmul_scalar_e _fmul_scalar_e: push %rdi push %r13 push %rbx ;# Compute the raw multiplication of f1*f2 mulxq 0(%rsi), %r8, %rcx ;# f1[0]*f2 mulxq 8(%rsi), %r9, %rbx ;# f1[1]*f2 add %rcx, %r9 mov $0, %rcx mulxq 16(%rsi), %r10, %r13 ;# f1[2]*f2 adcx %rbx, %r10 mulxq 24(%rsi), %r11, %rax ;# f1[3]*f2 adcx %r13, %r11 adcx %rcx, %rax ;# Wrap the result back into the field ;# Step 1: Compute carry*38 mov $38, %rdx imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rbx pop %r13 pop %rdi ret .global _fmul_e _fmul_e: push %r13 push %r14 push %r15 push %rbx mov %rdx, %r15 ;# Compute the raw multiplication: tmp <- src1 * src2 ;# Compute src1[0] * src2 movq 0(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d movq %r8, 0(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 movq %r10, 8(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 mov $0, %rax adox %rdx, %rax ;# Compute src1[1] * src2 movq 8(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 8(%rdi), %r8 movq %r8, 8(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 16(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[2] * src2 movq 16(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 16(%rdi), %r8 movq %r8, 16(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 24(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[3] * src2 movq 24(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 24(%rdi), %r8 movq %r8, 24(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 32(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx movq %rbx, 40(%rdi) mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 movq %r14, 48(%rdi) mov $0, %rax adox %rdx, %rax adcx %r8, %rax movq %rax, 56(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r15, %rdi ;# Wrap the result back into the field ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rbx pop %r15 pop %r14 pop %r13 ret .global _fmul2_e _fmul2_e: push %r13 push %r14 push %r15 push %rbx mov %rdx, %r15 ;# Compute the raw multiplication tmp[0] <- f1[0] * f2[0] ;# Compute src1[0] * src2 movq 0(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d movq %r8, 0(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 movq %r10, 8(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 mov $0, %rax adox %rdx, %rax ;# Compute src1[1] * src2 movq 8(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 8(%rdi), %r8 movq %r8, 8(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 16(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[2] * src2 movq 16(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 16(%rdi), %r8 movq %r8, 16(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 24(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[3] * src2 movq 24(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 24(%rdi), %r8 movq %r8, 24(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 32(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx movq %rbx, 40(%rdi) mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 movq %r14, 48(%rdi) mov $0, %rax adox %rdx, %rax adcx %r8, %rax movq %rax, 56(%rdi) ;# Compute the raw multiplication tmp[1] <- f1[1] * f2[1] ;# Compute src1[0] * src2 movq 32(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d movq %r8, 64(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 movq %r10, 72(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 mov $0, %rax adox %rdx, %rax ;# Compute src1[1] * src2 movq 40(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 72(%rdi), %r8 movq %r8, 72(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 80(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[2] * src2 movq 48(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 80(%rdi), %r8 movq %r8, 80(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 88(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[3] * src2 movq 56(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 88(%rdi), %r8 movq %r8, 88(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 96(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx movq %rbx, 104(%rdi) mov $0, %r8 mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 movq %r14, 112(%rdi) mov $0, %rax adox %rdx, %rax adcx %r8, %rax movq %rax, 120(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r15, %rdi ;# Wrap the results back into the field ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 96(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 64(%rsi), %r8 mulxq 104(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 72(%rsi), %r9 mulxq 112(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 80(%rsi), %r10 mulxq 120(%rsi), %r11, %rax adcx %r13, %r11 adoxq 88(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 40(%rdi) adcx %rcx, %r10 movq %r10, 48(%rdi) adcx %rcx, %r11 movq %r11, 56(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 32(%rdi) pop %rbx pop %r15 pop %r14 pop %r13 ret .global _fsqr_e _fsqr_e: push %r15 push %r13 push %r14 push %r12 push %rbx mov %rdx, %r12 ;# Compute the raw multiplication: tmp <- f * f ;# Step 1: Compute all partial products movq 0(%rsi), %rdx ;# f[0] mulxq 8(%rsi), %r8, %r14 xor %r15d, %r15d ;# f[1]*f[0] mulxq 16(%rsi), %r9, %r10 adcx %r14, %r9 ;# f[2]*f[0] mulxq 24(%rsi), %rax, %rcx adcx %rax, %r10 ;# f[3]*f[0] movq 24(%rsi), %rdx ;# f[3] mulxq 8(%rsi), %r11, %rbx adcx %rcx, %r11 ;# f[1]*f[3] mulxq 16(%rsi), %rax, %r13 adcx %rax, %rbx ;# f[2]*f[3] movq 8(%rsi), %rdx adcx %r15, %r13 ;# f1 mulxq 16(%rsi), %rax, %rcx mov $0, %r14 ;# f[2]*f[1] ;# Step 2: Compute two parallel carry chains xor %r15d, %r15d adox %rax, %r10 adcx %r8, %r8 adox %rcx, %r11 adcx %r9, %r9 adox %r15, %rbx adcx %r10, %r10 adox %r15, %r13 adcx %r11, %r11 adox %r15, %r14 adcx %rbx, %rbx adcx %r13, %r13 adcx %r14, %r14 ;# Step 3: Compute intermediate squares movq 0(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[0]^2 movq %rax, 0(%rdi) add %rcx, %r8 movq %r8, 8(%rdi) movq 8(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[1]^2 adcx %rax, %r9 movq %r9, 16(%rdi) adcx %rcx, %r10 movq %r10, 24(%rdi) movq 16(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[2]^2 adcx %rax, %r11 movq %r11, 32(%rdi) adcx %rcx, %rbx movq %rbx, 40(%rdi) movq 24(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[3]^2 adcx %rax, %r13 movq %r13, 48(%rdi) adcx %rcx, %r14 movq %r14, 56(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r12, %rdi ;# Wrap the result back into the field ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rbx pop %r12 pop %r14 pop %r13 pop %r15 ret .global _fsqr2_e _fsqr2_e: push %r15 push %r13 push %r14 push %r12 push %rbx mov %rdx, %r12 ;# Step 1: Compute all partial products movq 0(%rsi), %rdx ;# f[0] mulxq 8(%rsi), %r8, %r14 xor %r15d, %r15d ;# f[1]*f[0] mulxq 16(%rsi), %r9, %r10 adcx %r14, %r9 ;# f[2]*f[0] mulxq 24(%rsi), %rax, %rcx adcx %rax, %r10 ;# f[3]*f[0] movq 24(%rsi), %rdx ;# f[3] mulxq 8(%rsi), %r11, %rbx adcx %rcx, %r11 ;# f[1]*f[3] mulxq 16(%rsi), %rax, %r13 adcx %rax, %rbx ;# f[2]*f[3] movq 8(%rsi), %rdx adcx %r15, %r13 ;# f1 mulxq 16(%rsi), %rax, %rcx mov $0, %r14 ;# f[2]*f[1] ;# Step 2: Compute two parallel carry chains xor %r15d, %r15d adox %rax, %r10 adcx %r8, %r8 adox %rcx, %r11 adcx %r9, %r9 adox %r15, %rbx adcx %r10, %r10 adox %r15, %r13 adcx %r11, %r11 adox %r15, %r14 adcx %rbx, %rbx adcx %r13, %r13 adcx %r14, %r14 ;# Step 3: Compute intermediate squares movq 0(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[0]^2 movq %rax, 0(%rdi) add %rcx, %r8 movq %r8, 8(%rdi) movq 8(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[1]^2 adcx %rax, %r9 movq %r9, 16(%rdi) adcx %rcx, %r10 movq %r10, 24(%rdi) movq 16(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[2]^2 adcx %rax, %r11 movq %r11, 32(%rdi) adcx %rcx, %rbx movq %rbx, 40(%rdi) movq 24(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[3]^2 adcx %rax, %r13 movq %r13, 48(%rdi) adcx %rcx, %r14 movq %r14, 56(%rdi) ;# Step 1: Compute all partial products movq 32(%rsi), %rdx ;# f[0] mulxq 40(%rsi), %r8, %r14 xor %r15d, %r15d ;# f[1]*f[0] mulxq 48(%rsi), %r9, %r10 adcx %r14, %r9 ;# f[2]*f[0] mulxq 56(%rsi), %rax, %rcx adcx %rax, %r10 ;# f[3]*f[0] movq 56(%rsi), %rdx ;# f[3] mulxq 40(%rsi), %r11, %rbx adcx %rcx, %r11 ;# f[1]*f[3] mulxq 48(%rsi), %rax, %r13 adcx %rax, %rbx ;# f[2]*f[3] movq 40(%rsi), %rdx adcx %r15, %r13 ;# f1 mulxq 48(%rsi), %rax, %rcx mov $0, %r14 ;# f[2]*f[1] ;# Step 2: Compute two parallel carry chains xor %r15d, %r15d adox %rax, %r10 adcx %r8, %r8 adox %rcx, %r11 adcx %r9, %r9 adox %r15, %rbx adcx %r10, %r10 adox %r15, %r13 adcx %r11, %r11 adox %r15, %r14 adcx %rbx, %rbx adcx %r13, %r13 adcx %r14, %r14 ;# Step 3: Compute intermediate squares movq 32(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[0]^2 movq %rax, 64(%rdi) add %rcx, %r8 movq %r8, 72(%rdi) movq 40(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[1]^2 adcx %rax, %r9 movq %r9, 80(%rdi) adcx %rcx, %r10 movq %r10, 88(%rdi) movq 48(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[2]^2 adcx %rax, %r11 movq %r11, 96(%rdi) adcx %rcx, %rbx movq %rbx, 104(%rdi) movq 56(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[3]^2 adcx %rax, %r13 movq %r13, 112(%rdi) adcx %rcx, %r14 movq %r14, 120(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r12, %rdi ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 96(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 64(%rsi), %r8 mulxq 104(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 72(%rsi), %r9 mulxq 112(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 80(%rsi), %r10 mulxq 120(%rsi), %r11, %rax adcx %r13, %r11 adoxq 88(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 40(%rdi) adcx %rcx, %r10 movq %r10, 48(%rdi) adcx %rcx, %r11 movq %r11, 56(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 32(%rdi) pop %rbx pop %r12 pop %r14 pop %r13 pop %r15 ret .global _cswap2_e _cswap2_e: ;# Transfer bit into CF flag add $18446744073709551615, %rdi ;# cswap p1[0], p2[0] movq 0(%rsi), %r8 movq 0(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 0(%rsi) movq %r9, 0(%rdx) ;# cswap p1[1], p2[1] movq 8(%rsi), %r8 movq 8(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 8(%rsi) movq %r9, 8(%rdx) ;# cswap p1[2], p2[2] movq 16(%rsi), %r8 movq 16(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 16(%rsi) movq %r9, 16(%rdx) ;# cswap p1[3], p2[3] movq 24(%rsi), %r8 movq 24(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 24(%rsi) movq %r9, 24(%rdx) ;# cswap p1[4], p2[4] movq 32(%rsi), %r8 movq 32(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 32(%rsi) movq %r9, 32(%rdx) ;# cswap p1[5], p2[5] movq 40(%rsi), %r8 movq 40(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 40(%rsi) movq %r9, 40(%rdx) ;# cswap p1[6], p2[6] movq 48(%rsi), %r8 movq 48(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 48(%rsi) movq %r9, 48(%rdx) ;# cswap p1[7], p2[7] movq 56(%rsi), %r8 movq 56(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 56(%rsi) movq %r9, 56(%rdx) ret
usenix-security-verdict/verdict
199,564
deps/libcrux/sys/hacl/c/vale/src/aesgcm-x86_64-darwin.S
.text .global _aes128_key_expansion _aes128_key_expansion: movdqu 0(%rdi), %xmm1 mov %rsi, %rdx movdqu %xmm1, 0(%rdx) aeskeygenassist $1, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 16(%rdx) aeskeygenassist $2, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 32(%rdx) aeskeygenassist $4, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 48(%rdx) aeskeygenassist $8, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 64(%rdx) aeskeygenassist $16, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 80(%rdx) aeskeygenassist $32, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 96(%rdx) aeskeygenassist $64, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 112(%rdx) aeskeygenassist $128, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 128(%rdx) aeskeygenassist $27, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 144(%rdx) aeskeygenassist $54, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 160(%rdx) pxor %xmm1, %xmm1 pxor %xmm2, %xmm2 pxor %xmm3, %xmm3 ret .global _aes128_keyhash_init _aes128_keyhash_init: mov $579005069656919567, %r8 pinsrq $0, %r8, %xmm4 mov $283686952306183, %r8 pinsrq $1, %r8, %xmm4 pxor %xmm0, %xmm0 movdqu %xmm0, 80(%rsi) mov %rdi, %r8 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm4, %xmm0 mov %rsi, %rcx movdqu %xmm0, 32(%rcx) movdqu %xmm6, %xmm0 mov %r12, %rax movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 0(%rcx) movdqu %xmm6, %xmm1 movdqu %xmm6, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 16(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 48(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 64(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 96(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 112(%rcx) movdqu %xmm0, %xmm6 mov %rax, %r12 ret .global _aes256_key_expansion _aes256_key_expansion: movdqu 0(%rdi), %xmm1 movdqu 16(%rdi), %xmm3 mov %rsi, %rdx movdqu %xmm1, 0(%rdx) movdqu %xmm3, 16(%rdx) aeskeygenassist $1, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 32(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 48(%rdx) aeskeygenassist $2, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 64(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 80(%rdx) aeskeygenassist $4, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 96(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 112(%rdx) aeskeygenassist $8, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 128(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 144(%rdx) aeskeygenassist $16, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 160(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 176(%rdx) aeskeygenassist $32, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 192(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 208(%rdx) aeskeygenassist $64, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 224(%rdx) pxor %xmm1, %xmm1 pxor %xmm2, %xmm2 pxor %xmm3, %xmm3 pxor %xmm4, %xmm4 ret .global _aes256_keyhash_init _aes256_keyhash_init: mov $579005069656919567, %r8 pinsrq $0, %r8, %xmm4 mov $283686952306183, %r8 pinsrq $1, %r8, %xmm4 pxor %xmm0, %xmm0 movdqu %xmm0, 80(%rsi) mov %rdi, %r8 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm4, %xmm0 mov %rsi, %rcx movdqu %xmm0, 32(%rcx) movdqu %xmm6, %xmm0 mov %r12, %rax movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 0(%rcx) movdqu %xmm6, %xmm1 movdqu %xmm6, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 16(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 48(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 64(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 96(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 112(%rcx) movdqu %xmm0, %xmm6 mov %rax, %r12 ret .global _gctr128_bytes _gctr128_bytes: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx movdqu 0(%r9), %xmm7 mov %rdi, %rax mov %rdx, %rbx mov %rcx, %r13 mov 72(%rsp), %rcx mov %rcx, %rbp imul $16, %rbp mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm8 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm8 mov %rcx, %rdx shr $2, %rdx and $3, %rcx cmp $0, %rdx jbe L0 mov %rax, %r9 mov %rbx, %r10 pshufb %xmm8, %xmm7 movdqu %xmm7, %xmm9 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pshufb %xmm0, %xmm9 movdqu %xmm9, %xmm10 pxor %xmm3, %xmm3 mov $1, %rax pinsrd $2, %eax, %xmm3 paddd %xmm3, %xmm9 mov $3, %rax pinsrd $2, %eax, %xmm3 mov $2, %rax pinsrd $0, %eax, %xmm3 paddd %xmm3, %xmm10 pshufb %xmm8, %xmm9 pshufb %xmm8, %xmm10 pextrq $0, %xmm7, %rdi mov $283686952306183, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pxor %xmm15, %xmm15 mov $4, %rax pinsrd $0, %eax, %xmm15 mov $4, %rax pinsrd $2, %eax, %xmm15 jmp L3 .balign 16 L2: pinsrq $0, %rdi, %xmm2 pinsrq $0, %rdi, %xmm12 pinsrq $0, %rdi, %xmm13 pinsrq $0, %rdi, %xmm14 shufpd $2, %xmm9, %xmm2 shufpd $0, %xmm9, %xmm12 shufpd $2, %xmm10, %xmm13 shufpd $0, %xmm10, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 movdqu 0(%r8), %xmm3 movdqu 16(%r8), %xmm4 movdqu 32(%r8), %xmm5 movdqu 48(%r8), %xmm6 paddd %xmm15, %xmm9 paddd %xmm15, %xmm10 pxor %xmm3, %xmm2 pxor %xmm3, %xmm12 pxor %xmm3, %xmm13 pxor %xmm3, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 64(%r8), %xmm3 movdqu 80(%r8), %xmm4 movdqu 96(%r8), %xmm5 movdqu 112(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 128(%r8), %xmm3 movdqu 144(%r8), %xmm4 movdqu 160(%r8), %xmm5 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenclast %xmm5, %xmm2 aesenclast %xmm5, %xmm12 aesenclast %xmm5, %xmm13 aesenclast %xmm5, %xmm14 movdqu 0(%r9), %xmm7 pxor %xmm7, %xmm2 movdqu 16(%r9), %xmm7 pxor %xmm7, %xmm12 movdqu 32(%r9), %xmm7 pxor %xmm7, %xmm13 movdqu 48(%r9), %xmm7 pxor %xmm7, %xmm14 movdqu %xmm2, 0(%r10) movdqu %xmm12, 16(%r10) movdqu %xmm13, 32(%r10) movdqu %xmm14, 48(%r10) sub $1, %rdx add $64, %r9 add $64, %r10 .balign 16 L3: cmp $0, %rdx ja L2 movdqu %xmm9, %xmm7 pinsrq $0, %rdi, %xmm7 pshufb %xmm8, %xmm7 mov %r9, %rax mov %r10, %rbx jmp L1 L0: L1: mov $0, %rdx mov %rax, %r9 mov %rbx, %r10 pxor %xmm4, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 jmp L5 .balign 16 L4: movdqu %xmm7, %xmm0 pshufb %xmm8, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r9), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rdx add $16, %r9 add $16, %r10 paddd %xmm4, %xmm7 .balign 16 L5: cmp %rcx, %rdx jne L4 cmp %rbp, %rsi jbe L6 movdqu 0(%r13), %xmm1 movdqu %xmm7, %xmm0 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm2 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm2 pshufb %xmm2, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm1 movdqu %xmm1, 0(%r13) jmp L7 L6: L7: pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global _gctr256_bytes _gctr256_bytes: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx movdqu 0(%r9), %xmm7 mov %rdi, %rax mov %rdx, %rbx mov %rcx, %r13 mov 72(%rsp), %rcx mov %rcx, %rbp imul $16, %rbp mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm8 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm8 mov %rcx, %rdx shr $2, %rdx and $3, %rcx cmp $0, %rdx jbe L8 mov %rax, %r9 mov %rbx, %r10 pshufb %xmm8, %xmm7 movdqu %xmm7, %xmm9 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pshufb %xmm0, %xmm9 movdqu %xmm9, %xmm10 pxor %xmm3, %xmm3 mov $1, %rax pinsrd $2, %eax, %xmm3 paddd %xmm3, %xmm9 mov $3, %rax pinsrd $2, %eax, %xmm3 mov $2, %rax pinsrd $0, %eax, %xmm3 paddd %xmm3, %xmm10 pshufb %xmm8, %xmm9 pshufb %xmm8, %xmm10 pextrq $0, %xmm7, %rdi mov $283686952306183, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pxor %xmm15, %xmm15 mov $4, %rax pinsrd $0, %eax, %xmm15 mov $4, %rax pinsrd $2, %eax, %xmm15 jmp L11 .balign 16 L10: pinsrq $0, %rdi, %xmm2 pinsrq $0, %rdi, %xmm12 pinsrq $0, %rdi, %xmm13 pinsrq $0, %rdi, %xmm14 shufpd $2, %xmm9, %xmm2 shufpd $0, %xmm9, %xmm12 shufpd $2, %xmm10, %xmm13 shufpd $0, %xmm10, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 movdqu 0(%r8), %xmm3 movdqu 16(%r8), %xmm4 movdqu 32(%r8), %xmm5 movdqu 48(%r8), %xmm6 paddd %xmm15, %xmm9 paddd %xmm15, %xmm10 pxor %xmm3, %xmm2 pxor %xmm3, %xmm12 pxor %xmm3, %xmm13 pxor %xmm3, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 64(%r8), %xmm3 movdqu 80(%r8), %xmm4 movdqu 96(%r8), %xmm5 movdqu 112(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 128(%r8), %xmm3 movdqu 144(%r8), %xmm4 movdqu 160(%r8), %xmm5 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 movdqu %xmm5, %xmm3 movdqu 176(%r8), %xmm4 movdqu 192(%r8), %xmm5 movdqu 208(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 224(%r8), %xmm5 aesenclast %xmm5, %xmm2 aesenclast %xmm5, %xmm12 aesenclast %xmm5, %xmm13 aesenclast %xmm5, %xmm14 movdqu 0(%r9), %xmm7 pxor %xmm7, %xmm2 movdqu 16(%r9), %xmm7 pxor %xmm7, %xmm12 movdqu 32(%r9), %xmm7 pxor %xmm7, %xmm13 movdqu 48(%r9), %xmm7 pxor %xmm7, %xmm14 movdqu %xmm2, 0(%r10) movdqu %xmm12, 16(%r10) movdqu %xmm13, 32(%r10) movdqu %xmm14, 48(%r10) sub $1, %rdx add $64, %r9 add $64, %r10 .balign 16 L11: cmp $0, %rdx ja L10 movdqu %xmm9, %xmm7 pinsrq $0, %rdi, %xmm7 pshufb %xmm8, %xmm7 mov %r9, %rax mov %r10, %rbx jmp L9 L8: L9: mov $0, %rdx mov %rax, %r9 mov %rbx, %r10 pxor %xmm4, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 jmp L13 .balign 16 L12: movdqu %xmm7, %xmm0 pshufb %xmm8, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r9), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rdx add $16, %r9 add $16, %r10 paddd %xmm4, %xmm7 .balign 16 L13: cmp %rcx, %rdx jne L12 cmp %rbp, %rsi jbe L14 movdqu 0(%r13), %xmm1 movdqu %xmm7, %xmm0 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm2 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm2 pshufb %xmm2, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm1 movdqu %xmm1, 0(%r13) jmp L15 L14: L15: pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global _compute_iv_stdcall _compute_iv_stdcall: cmp $12, %rsi jne L16 cmp $12, %rsi jne L18 movdqu 0(%r8), %xmm0 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm1 mov $283686952306183, %rax pinsrq $1, %rax, %xmm1 pshufb %xmm1, %xmm0 mov $1, %rax pinsrd $0, %eax, %xmm0 movdqu %xmm0, 0(%rcx) jmp L19 L18: mov %rcx, %rax add $32, %r9 mov %r8, %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L21 .balign 16 L20: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L21: cmp $6, %rdx jae L20 cmp $0, %rdx jbe L22 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L24 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L25 L24: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L26 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L28 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L30 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L31 L30: L31: jmp L29 L28: L29: jmp L27 L26: L27: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L25: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L23 L22: L23: mov %rsi, %r15 cmp %rcx, %rsi jbe L32 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L34 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L35 L34: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L35: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L33 L32: L33: mov %rax, %rcx mov $0, %r11 mov %rsi, %r13 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm8, 0(%rcx) L19: jmp L17 L16: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx cmp $12, %rsi jne L36 movdqu 0(%r8), %xmm0 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm1 mov $283686952306183, %rax pinsrq $1, %rax, %xmm1 pshufb %xmm1, %xmm0 mov $1, %rax pinsrd $0, %eax, %xmm0 movdqu %xmm0, 0(%rcx) jmp L37 L36: mov %rcx, %rax add $32, %r9 mov %r8, %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L39 .balign 16 L38: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L39: cmp $6, %rdx jae L38 cmp $0, %rdx jbe L40 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L42 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L43 L42: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L44 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L46 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L48 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L49 L48: L49: jmp L47 L46: L47: jmp L45 L44: L45: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L43: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L41 L40: L41: mov %rsi, %r15 cmp %rcx, %rsi jbe L50 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L52 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L53 L52: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L53: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L51 L50: L51: mov %rax, %rcx mov $0, %r11 mov %rsi, %r13 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm8, 0(%rcx) L37: pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 L17: ret .global _gcm128_encrypt_opt _gcm128_encrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L55 .balign 16 L54: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L55: cmp $6, %rdx jae L54 cmp $0, %rdx jbe L56 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L58 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L59 L58: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L60 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L62 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L64 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L65 L64: L65: jmp L63 L62: L63: jmp L61 L60: L61: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L59: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L57 L56: L57: mov %rsi, %r15 cmp %rcx, %rsi jbe L66 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L68 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L69 L68: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L69: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L67 L66: L67: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L70 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L71 L70: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rsi), %r14 movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L72 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L73 L72: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L73: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 movdqu 32(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi vpshufb %xmm0, %xmm9, %xmm8 vpshufb %xmm0, %xmm10, %xmm2 movdqu %xmm8, 112(%rbp) vpshufb %xmm0, %xmm11, %xmm4 movdqu %xmm2, 96(%rbp) vpshufb %xmm0, %xmm12, %xmm5 movdqu %xmm4, 80(%rbp) vpshufb %xmm0, %xmm13, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm14, %xmm7 movdqu %xmm6, 48(%rbp) movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L74 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L75 L74: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L75: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 movdqu 32(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi sub $12, %rdx movdqu 32(%rbp), %xmm8 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) jmp L77 .balign 16 L76: add $6, %rbx cmp $256, %rbx jb L78 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L79 L78: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L79: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx add $96, %r14 cmp $0, %rdx jbe L80 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L81 L80: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L81: .balign 16 L77: cmp $0, %rdx ja L76 movdqu 32(%rbp), %xmm7 movdqu %xmm1, 32(%rbp) pxor %xmm4, %xmm4 movdqu %xmm4, 16(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm0 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm0 movdqu %xmm9, -96(%rsi) vpshufb %xmm0, %xmm9, %xmm9 vpxor %xmm7, %xmm1, %xmm1 movdqu %xmm10, -80(%rsi) vpshufb %xmm0, %xmm10, %xmm10 movdqu %xmm11, -64(%rsi) vpshufb %xmm0, %xmm11, %xmm11 movdqu %xmm12, -48(%rsi) vpshufb %xmm0, %xmm12, %xmm12 movdqu %xmm13, -32(%rsi) vpshufb %xmm0, %xmm13, %xmm13 movdqu %xmm14, -16(%rsi) vpshufb %xmm0, %xmm14, %xmm14 pxor %xmm4, %xmm4 movdqu %xmm14, %xmm7 movdqu %xmm4, 16(%rbp) movdqu %xmm13, 48(%rbp) movdqu %xmm12, 64(%rbp) movdqu %xmm11, 80(%rbp) movdqu %xmm10, 96(%rbp) movdqu %xmm9, 112(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 sub $128, %rcx L71: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L83 .balign 16 L82: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L83: cmp %rdx, %rbx jne L82 mov %rdi, %r11 jmp L85 .balign 16 L84: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L85: cmp $6, %rdx jae L84 cmp $0, %rdx jbe L86 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L88 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L89 L88: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L90 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L92 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L94 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L95 L94: L95: jmp L93 L92: L93: jmp L91 L90: L91: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L89: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L87 L86: L87: add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L96 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%rax), %xmm4 pxor %xmm4, %xmm0 movdqu %xmm0, 0(%rax) cmp $8, %r10 jae L98 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L99 L98: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L99: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L97 L96: L97: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu %xmm8, 0(%r15) pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global _gcm256_encrypt_opt _gcm256_encrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L101 .balign 16 L100: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L101: cmp $6, %rdx jae L100 cmp $0, %rdx jbe L102 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L104 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L105 L104: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L106 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L108 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L110 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L111 L110: L111: jmp L109 L108: L109: jmp L107 L106: L107: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L105: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L103 L102: L103: mov %rsi, %r15 cmp %rcx, %rsi jbe L112 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L114 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L115 L114: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L115: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L113 L112: L113: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L116 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L117 L116: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rsi), %r14 movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L118 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L119 L118: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L119: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 80(%rcx), %xmm15 movdqu 96(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi vpshufb %xmm0, %xmm9, %xmm8 vpshufb %xmm0, %xmm10, %xmm2 movdqu %xmm8, 112(%rbp) vpshufb %xmm0, %xmm11, %xmm4 movdqu %xmm2, 96(%rbp) vpshufb %xmm0, %xmm12, %xmm5 movdqu %xmm4, 80(%rbp) vpshufb %xmm0, %xmm13, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm14, %xmm7 movdqu %xmm6, 48(%rbp) movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L120 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L121 L120: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L121: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 80(%rcx), %xmm15 movdqu 96(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi sub $12, %rdx movdqu 32(%rbp), %xmm8 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) jmp L123 .balign 16 L122: add $6, %rbx cmp $256, %rbx jb L124 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L125 L124: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L125: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 48(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 64(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 80(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 96(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx add $96, %r14 cmp $0, %rdx jbe L126 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L127 L126: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L127: .balign 16 L123: cmp $0, %rdx ja L122 movdqu 32(%rbp), %xmm7 movdqu %xmm1, 32(%rbp) pxor %xmm4, %xmm4 movdqu %xmm4, 16(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm0 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm0 movdqu %xmm9, -96(%rsi) vpshufb %xmm0, %xmm9, %xmm9 vpxor %xmm7, %xmm1, %xmm1 movdqu %xmm10, -80(%rsi) vpshufb %xmm0, %xmm10, %xmm10 movdqu %xmm11, -64(%rsi) vpshufb %xmm0, %xmm11, %xmm11 movdqu %xmm12, -48(%rsi) vpshufb %xmm0, %xmm12, %xmm12 movdqu %xmm13, -32(%rsi) vpshufb %xmm0, %xmm13, %xmm13 movdqu %xmm14, -16(%rsi) vpshufb %xmm0, %xmm14, %xmm14 pxor %xmm4, %xmm4 movdqu %xmm14, %xmm7 movdqu %xmm4, 16(%rbp) movdqu %xmm13, 48(%rbp) movdqu %xmm12, 64(%rbp) movdqu %xmm11, 80(%rbp) movdqu %xmm10, 96(%rbp) movdqu %xmm9, 112(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 sub $128, %rcx L117: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L129 .balign 16 L128: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L129: cmp %rdx, %rbx jne L128 mov %rdi, %r11 jmp L131 .balign 16 L130: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L131: cmp $6, %rdx jae L130 cmp $0, %rdx jbe L132 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L134 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L135 L134: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L136 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L138 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L140 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L141 L140: L141: jmp L139 L138: L139: jmp L137 L136: L137: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L135: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L133 L132: L133: add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L142 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%rax), %xmm4 pxor %xmm4, %xmm0 movdqu %xmm0, 0(%rax) cmp $8, %r10 jae L144 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L145 L144: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L145: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L143 L142: L143: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu %xmm8, 0(%r15) pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global _gcm128_decrypt_opt _gcm128_decrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L147 .balign 16 L146: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L147: cmp $6, %rdx jae L146 cmp $0, %rdx jbe L148 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L150 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L151 L150: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L152 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L154 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L156 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L157 L156: L157: jmp L155 L154: L155: jmp L153 L152: L153: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L151: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L149 L148: L149: mov %rsi, %r15 cmp %rcx, %rsi jbe L158 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L160 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L161 L160: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L161: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L159 L158: L159: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L162 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L163 L162: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rdi), %r14 movdqu 32(%rbp), %xmm8 movdqu 80(%rdi), %xmm7 movdqu 64(%rdi), %xmm4 movdqu 48(%rdi), %xmm5 movdqu 32(%rdi), %xmm6 vpshufb %xmm0, %xmm7, %xmm7 movdqu 16(%rdi), %xmm2 vpshufb %xmm0, %xmm4, %xmm4 movdqu 0(%rdi), %xmm3 vpshufb %xmm0, %xmm5, %xmm5 movdqu %xmm4, 48(%rbp) vpshufb %xmm0, %xmm6, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm2, %xmm2 movdqu %xmm6, 80(%rbp) vpshufb %xmm0, %xmm3, %xmm3 movdqu %xmm2, 96(%rbp) movdqu %xmm3, 112(%rbp) pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) cmp $6, %rdx jne L164 sub $96, %r14 jmp L165 L164: L165: jmp L167 .balign 16 L166: add $6, %rbx cmp $256, %rbx jb L168 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L169 L168: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L169: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx cmp $6, %rdx jbe L170 add $96, %r14 jmp L171 L170: L171: cmp $0, %rdx jbe L172 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L173 L172: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L173: .balign 16 L167: cmp $0, %rdx ja L166 movdqu %xmm1, 32(%rbp) movdqu %xmm9, -96(%rsi) movdqu %xmm10, -80(%rsi) movdqu %xmm11, -64(%rsi) movdqu %xmm12, -48(%rsi) movdqu %xmm13, -32(%rsi) movdqu %xmm14, -16(%rsi) sub $128, %rcx L163: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 mov %rdi, %rbx mov %rdx, %r12 mov %rax, %rdi mov %rdi, %r11 jmp L175 .balign 16 L174: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L175: cmp $6, %rdx jae L174 cmp $0, %rdx jbe L176 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L178 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L179 L178: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L180 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L182 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L184 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L185 L184: L185: jmp L183 L182: L183: jmp L181 L180: L181: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L179: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L177 L176: L177: mov %rbx, %rdi mov %r12, %rdx pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L187 .balign 16 L186: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L187: cmp %rdx, %rbx jne L186 add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L188 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu 0(%rax), %xmm0 movdqu %xmm0, %xmm10 cmp $8, %r10 jae L190 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L191 L190: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L191: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm10 movdqu %xmm10, 0(%rax) jmp L189 L188: L189: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu 0(%r15), %xmm0 pcmpeqd %xmm8, %xmm0 pextrq $0, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rax adc $0, %rax pextrq $1, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rdx adc $0, %rdx add %rdx, %rax mov %rax, %rcx pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 mov %rcx, %rax ret .global _gcm256_decrypt_opt _gcm256_decrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L193 .balign 16 L192: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L193: cmp $6, %rdx jae L192 cmp $0, %rdx jbe L194 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L196 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L197 L196: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L198 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L200 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L202 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L203 L202: L203: jmp L201 L200: L201: jmp L199 L198: L199: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L197: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L195 L194: L195: mov %rsi, %r15 cmp %rcx, %rsi jbe L204 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L206 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L207 L206: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L207: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L205 L204: L205: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L208 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L209 L208: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rdi), %r14 movdqu 32(%rbp), %xmm8 movdqu 80(%rdi), %xmm7 movdqu 64(%rdi), %xmm4 movdqu 48(%rdi), %xmm5 movdqu 32(%rdi), %xmm6 vpshufb %xmm0, %xmm7, %xmm7 movdqu 16(%rdi), %xmm2 vpshufb %xmm0, %xmm4, %xmm4 movdqu 0(%rdi), %xmm3 vpshufb %xmm0, %xmm5, %xmm5 movdqu %xmm4, 48(%rbp) vpshufb %xmm0, %xmm6, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm2, %xmm2 movdqu %xmm6, 80(%rbp) vpshufb %xmm0, %xmm3, %xmm3 movdqu %xmm2, 96(%rbp) movdqu %xmm3, 112(%rbp) pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) cmp $6, %rdx jne L210 sub $96, %r14 jmp L211 L210: L211: jmp L213 .balign 16 L212: add $6, %rbx cmp $256, %rbx jb L214 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L215 L214: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L215: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 48(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 64(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 80(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 96(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx cmp $6, %rdx jbe L216 add $96, %r14 jmp L217 L216: L217: cmp $0, %rdx jbe L218 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L219 L218: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L219: .balign 16 L213: cmp $0, %rdx ja L212 movdqu %xmm1, 32(%rbp) movdqu %xmm9, -96(%rsi) movdqu %xmm10, -80(%rsi) movdqu %xmm11, -64(%rsi) movdqu %xmm12, -48(%rsi) movdqu %xmm13, -32(%rsi) movdqu %xmm14, -16(%rsi) sub $128, %rcx L209: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 mov %rdi, %rbx mov %rdx, %r12 mov %rax, %rdi mov %rdi, %r11 jmp L221 .balign 16 L220: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L221: cmp $6, %rdx jae L220 cmp $0, %rdx jbe L222 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L224 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L225 L224: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L226 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L228 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L230 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L231 L230: L231: jmp L229 L228: L229: jmp L227 L226: L227: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L225: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L223 L222: L223: mov %rbx, %rdi mov %r12, %rdx pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L233 .balign 16 L232: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L233: cmp %rdx, %rbx jne L232 add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L234 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu 0(%rax), %xmm0 movdqu %xmm0, %xmm10 cmp $8, %r10 jae L236 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L237 L236: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L237: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm10 movdqu %xmm10, 0(%rax) jmp L235 L234: L235: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu 0(%r15), %xmm0 pcmpeqd %xmm8, %xmm0 pextrq $0, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rax adc $0, %rax pextrq $1, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rdx adc $0, %rdx add %rdx, %rax mov %rax, %rcx pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 mov %rcx, %rax ret
USTB-806/chaos-double-pagetable
1,688
os/src/trap/init_entry.S
.altmacro .section .text .globl __init_entry .globl __user_entry .align 2 __init_entry: # a0: *TrapContext of initproc; a1: initproc token # switch to user space csrw satp, a1 sfence.vma csrw sscratch, a0 mv sp, a0 # now sp points to TrapContext in user space, start restoring based on it # restore sstatus/sepc ld t0, 32*8(sp) ld t1, 33*8(sp) csrw sstatus, t0 csrw sepc, t1 # restore general purpose registers except x0/sp/tp ld x1, 1*8(sp) ld x3, 3*8(sp) .set n, 5 .rept 27 LOAD_GP %n .set n, n+1 .endr # back to user stack ld sp, 2*8(sp) sret __user_entry: # a0: *TrapContext in user space(Constant); a1: user space token # switch to user space csrw satp, a1 sfence.vma csrw sscratch, a0 mv sp, a0 # now sp points to TrapContext in user space, start restoring based on it # restore sstatus/sepc ld t0, 32*8(sp) ld t1, 33*8(sp) csrw sstatus, t0 csrw sepc, t1 # restore general purpose registers except x0/sp/tp ld x1, 1*8(sp) ld x3, 3*8(sp) .set n, 5 .rept 27 LOAD_GP %n .set n, n+1 .endr # back to user stack ld sp, 2*8(sp) sret __wait_return: # a0: *TrapContext in user space(Constant); a1: user space token # switch to user space csrw satp, a1 sfence.vma # csrw sscratch, a0 # mv sp, a0 # # now sp points to TrapContext in user space, start restoring based on it # # restore general purpose registers except x0/sp/tp # ld x3, 3*8(sp) # .set n, 5 # .rept 27 # LOAD_GP %n # .set n, n+1 # .endr ret
USTB-806/chaos-double-pagetable
1,882
os/src/trap/trap.S
.altmacro .macro SAVE_GP n sd x\n, \n*8(sp) .endm .macro LOAD_GP n ld x\n, \n*8(sp) .endm .section .text .globl __alltraps .globl __restore .align 2 __alltraps: csrrw sp, sscratch, sp # now sp->*TrapContext in user space, sscratch->user stack # save other general purpose registers sd x1, 1*8(sp) # skip sp(x2), we will save it later sd x3, 3*8(sp) # skip tp(x4), application does not use it # save x5~x31 .set n, 5 .rept 27 SAVE_GP %n .set n, n+1 .endr # we can use t0/t1/t2 freely, because they have been saved in TrapContext csrr t0, sstatus csrr t1, sepc sd t0, 32*8(sp) sd t1, 33*8(sp) # read user stack from sscratch and save it in TrapContext csrr t2, sscratch sd t2, 2*8(sp) # load kernel_satp into t0 ld t0, 34*8(sp) # load trap_handler into t1 ld t1, 36*8(sp) # move to kernel_sp ld sp, 35*8(sp) # jump to trap_handler jr t1 __restore: # a0: *TrapContext in user space(Constant); a1: user space token csrw sscratch, a0 mv sp, a0 # now sp points to TrapContext in user space, start restoring based on it # restore sstatus/sepc ld t0, 32*8(sp) ld t1, 33*8(sp) csrw sstatus, t0 csrw sepc, t1 # restore general purpose registers except x0/sp/tp ld x1, 1*8(sp) ld x3, 3*8(sp) .set n, 5 .rept 27 LOAD_GP %n .set n, n+1 .endr # back to user stack ld sp, 2*8(sp) sret .section .data # emergency stack for kernel trap # in order to print trap info even if the kernel stack is corrupted. __emergency: .align 4 .space 1024 * 4 __emergency_end: .section .text .globl __trap_from_kernel # 2^2=4 bytes aligned for stvec .align 2 __trap_from_kernel: la sp, __emergency_end j trap_from_kernel
USTB-806/chaos-double-pagetable
1,237
os/src/task/switch.S
.altmacro .macro SAVE_SN n sd s\n, (\n+2)*8(a0) .endm .macro LOAD_SN n ld s\n, (\n+2)*8(a1) .endm .section .text .globl __switch .globl __schedule __switch: # __switch( # current_task_cx_ptr: *mut TaskContext, # next_task_cx_ptr: *const TaskContext # ) # save kernel stack of current task sd sp, 8(a0) # save ra & s0~s11 of current execution sd ra, 0(a0) .set n, 0 .rept 12 SAVE_SN %n .set n, n + 1 .endr # restore ra & s0~s11 of next execution ld ra, 0(a1) .set n, 0 .rept 12 LOAD_SN %n .set n, n + 1 .endr # restore kernel stack of next task ld sp, 8(a1) ret __schedule: # __schedule( # current_task_cx_ptr: *mut TaskContext, # next_task_cx_ptr: *const TaskContext # ) # save kernel stack of current task sd sp, 8(a0) # save ra & s0~s11 of current execution sd ra, 0(a0) .set n, 0 .rept 12 SAVE_SN %n .set n, n + 1 .endr # restore ra & s0~s11 of next execution ld ra, 0(a1) .set n, 0 .rept 12 LOAD_SN %n .set n, n + 1 .endr # restore kernel stack of next task ld sp, 8(a1) ret
UNIX-73/baremetal_v3
1,696
src_asm/boot.S
/* SPDX-License-Identifier: MIT OR Apache-2.0 * * Bootloader simplificado: * - Inicializa la BSS (pone a cero el segmento .bss). * - Configura el puntero de pila. * - Salta a la entrada de Rust (_start_rust) en EL1. */ /* Macro para cargar una dirección de un símbolo de forma PC-relativa */ .macro ADR_REL reg, sym adrp \reg, \sym add \reg, \reg, #:lo12:\sym .endm .section .text._start .global _start _start: /* Inicialización de la BSS */ ADR_REL x0, __bss_start /* Dirección de inicio de .bss */ ADR_REL x1, __bss_end_exclusive /* Dirección final de .bss */ .L_bss_init_loop: cmp x0, x1 beq .L_prepare_rust /* Si se ha recorrido toda la BSS, saltar */ stp xzr, xzr, [x0], #16 /* Escribe 0 en dos registros de 64 bits y avanza 16 bytes */ b .L_bss_init_loop .L_prepare_rust: /* Configurar el puntero de pila para EL1 */ ADR_REL x0, __boot_core_stack_end_exclusive /* Carga la dirección final de la pila */ mov sp, x0 /* Usar la pila actual para la fase de boot */ msr SP_EL1, x0 /* Establecer SP_EL1 para EL1 */ /* Configurar SPSR_EL2 para regresar a EL1 en modo AArch64 con SP_EL1 (EL1h) y con interrupciones enmascaradas (por ejemplo, con valor 0x3c5) */ mov x0, #0x3c5 msr SPSR_EL2, x0 /* Configurar HCR_EL2 para que EL1 se ejecute en AArch64 */ mov x0, #(1 << 31) /* Establece RW=1 */ msr HCR_EL2, x0 /* Configurar ELR_EL2 con la dirección de entrada en EL1 (switch_to_el1) */ ADR_REL x0, switch_to_el1 msr ELR_EL2, x0 /* Realiza la transición a EL1: eret usará SPSR_EL2 y ELR_EL2 para cambiar a EL1 */ eret .size _start, . - _start
UNIX-73/baremetal_v3
3,340
src_asm/irq/entry.S
#include "entry.h" //D13.2.137 .globl irq_init_vectors irq_init_vectors: adr x0, vectors msr vbar_el1, x0 ret //C5.2.2 .globl irq_enable irq_enable: msr daifclr, #2 ret .globl irq_disable irq_disable: msr daifset, #2 ret .macro kernel_entry sub sp, sp, #S_FRAME_SIZE stp x0, x1, [sp, #16 * 0] stp x2, x3, [sp, #16 * 1] stp x4, x5, [sp, #16 * 2] stp x6, x7, [sp, #16 * 3] stp x8, x9, [sp, #16 * 4] stp x10, x11, [sp, #16 * 5] stp x12, x13, [sp, #16 * 6] stp x14, x15, [sp, #16 * 7] stp x16, x17, [sp, #16 * 8] stp x18, x19, [sp, #16 * 9] stp x20, x21, [sp, #16 * 10] stp x22, x23, [sp, #16 * 11] stp x24, x25, [sp, #16 * 12] stp x26, x27, [sp, #16 * 13] stp x28, x29, [sp, #16 * 14] str x30, [sp, #16 * 15] .endm .macro kernel_exit ldp x0, x1, [sp, #16 * 0] ldp x2, x3, [sp, #16 * 1] ldp x4, x5, [sp, #16 * 2] ldp x6, x7, [sp, #16 * 3] ldp x8, x9, [sp, #16 * 4] ldp x10, x11, [sp, #16 * 5] ldp x12, x13, [sp, #16 * 6] ldp x14, x15, [sp, #16 * 7] ldp x16, x17, [sp, #16 * 8] ldp x18, x19, [sp, #16 * 9] ldp x20, x21, [sp, #16 * 10] ldp x22, x23, [sp, #16 * 11] ldp x24, x25, [sp, #16 * 12] ldp x26, x27, [sp, #16 * 13] ldp x28, x29, [sp, #16 * 14] ldr x30, [sp, #16 * 15] add sp, sp, #S_FRAME_SIZE eret .endm .macro handle_invalid_entry type kernel_entry mov x0, #\type mrs x1, esr_el1 mrs x2, elr_el1 bl show_invalid_entry_message b err_hang .endm .macro ventry label .align 7 b \label .endm //Exception vectors table .align 11 .globl vectors vectors: ventry sync_invalid_el1t // Synchronous EL1t ventry irq_invalid_el1t // IRQ EL1t ventry fiq_invalid_el1t // FIQ EL1t ventry error_invalid_el1t // Error EL1t ventry sync_invalid_el1h // Synchronous EL1h ventry handle_el1_irq // IRQ EL1h ventry fiq_invalid_el1h // FIQ EL1h ventry error_invalid_el1h // Error EL1h ventry sync_invalid_el0_64 // Synchronous 64-bit EL0 ventry irq_invalid_el0_64 // IRQ 64-bit EL0 ventry fiq_invalid_el0_64 // FIQ 64-bit EL0 ventry error_invalid_el0_64 // Error 64-bit EL0 ventry sync_invalid_el0_32 // Synchronous 32-bit EL0 ventry irq_invalid_el0_32 // IRQ 32-bit EL0 ventry fiq_invalid_el0_32 // FIQ 32-bit EL0 ventry error_invalid_el0_32 // Error 32-bit EL0 sync_invalid_el1t: handle_invalid_entry SYNC_INVALID_EL1t irq_invalid_el1t: handle_invalid_entry IRQ_INVALID_EL1t fiq_invalid_el1t: handle_invalid_entry FIQ_INVALID_EL1t error_invalid_el1t: handle_invalid_entry ERROR_INVALID_EL1t sync_invalid_el1h: handle_invalid_entry SYNC_INVALID_EL1h fiq_invalid_el1h: handle_invalid_entry FIQ_INVALID_EL1h error_invalid_el1h: handle_invalid_entry ERROR_INVALID_EL1h sync_invalid_el0_64: handle_invalid_entry SYNC_INVALID_EL0_64 irq_invalid_el0_64: handle_invalid_entry IRQ_INVALID_EL0_64 fiq_invalid_el0_64: handle_invalid_entry FIQ_INVALID_EL0_64 error_invalid_el0_64: handle_invalid_entry ERROR_INVALID_EL0_64 sync_invalid_el0_32: handle_invalid_entry SYNC_INVALID_EL0_32 irq_invalid_el0_32: handle_invalid_entry IRQ_INVALID_EL0_32 fiq_invalid_el0_32: handle_invalid_entry FIQ_INVALID_EL0_32 error_invalid_el0_32: handle_invalid_entry ERROR_INVALID_EL0_32 handle_el1_irq: kernel_entry bl handle_irq kernel_exit .globl err_hang err_hang: b err_hang
UnpluggedAOSP12/bootable_libbootloader
9,565
gbl/efi/arch/riscv64/riscv64_efi_header.S
/* * Copyright (C) 2023 The Android Open Source Project * * Licensed under the Apache License, Version 2.0 (the "License"); * you may not use this file except in compliance with the License. * You may obtain a copy of the License at * * http://www.apache.org/licenses/LICENSE-2.0 * * Unless required by applicable law or agreed to in writing, software * distributed under the License is distributed on an "AS IS" BASIS, * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. * See the License for the specific language governing permissions and * limitations under the License. */ // Refer to https://llvm.org/doxygen/Object_2COFF_8h_source.html and Microsoft Portable Executable // and Common Object File Format Specification for more detail. // See https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#machine-types #define IMAGE_FILE_MACHINE_RISCV64 0x5064 // See https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#characteristics #define IMAGE_FILE_EXECUTABLE_IMAGE 0x0002 // See https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#optional-header-image-only #define PE32_PLUS_HEADER_MAGIC 0x020b // See https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#windows-subsystem #define IMAGE_SUBSYSTEM_EFI_APPLICATION 10 .macro DATA_DIRECTORY name \name\()_data_directory: .long 0 // support::ulittle32_t RelativeVirtualAddress; .long 0 // support::ulittle32_t Size; .endm .section .efi_header,"a" .global dos_header // MS-DOS Stub dos_header: .short 0x5a4d // Magic 'MZ' .short 0 // support::ulittle16_t UsedBytesInTheLastPage; .short 0 // support::ulittle16_t FileSizeInPages; .short 0 // support::ulittle16_t NumberOfRelocationItems; .short 0 // support::ulittle16_t HeaderSizeInParagraphs; .short 0 // support::ulittle16_t MinimumExtraParagraphs; .short 0 // support::ulittle16_t MaximumExtraParagraphs; .short 0 // support::ulittle16_t InitialRelativeSS; .short 0 // support::ulittle16_t InitialSP; .short 0 // support::ulittle16_t Checksum; .short 0 // support::ulittle16_t InitialIP; .short 0 // support::ulittle16_t InitialRelativeCS; .short 0 // support::ulittle16_t AddressOfRelocationTable; .short 0 // support::ulittle16_t OverlayNumber; .skip 2*4 // support::ulittle16_t Reserved[4]; .short 0 // support::ulittle16_t OEMid; .short 0 // support::ulittle16_t OEMinfo; .skip 2*10 // support::ulittle16_t Reserved2[10]; // Even though we fixed `dos_header` at 0x00, we still need to subtract it to // indicate this is relative offset. Otherwise linker complains about referencing // an absolute address when linking with `-fPIE` (position independent executable) .long signature - dos_header // support::ulittle32_t AddressOfNewExeHeader; // Signature signature: .long 0x00004550 // "PE\0\0" // COFF File Header coff_file_header: .short IMAGE_FILE_MACHINE_RISCV64 // support::ulittle16_t Machine; // ".reloc" and ".text" .short 2 // support::ulittle16_t NumberOfSections; .long 0 // support::ulittle32_t TimeDateStamp; .long 0 // support::ulittle32_t PointerToSymbolTable; .long 0 // support::ulittle32_t NumberOfSymbols; .short section_table_start - pe32plus_header // support::ulittle16_t SizeOfOptionalHeader; .short IMAGE_FILE_EXECUTABLE_IMAGE // support::ulittle16_t Characteristics; // PE32+ Optional Header pe32plus_header: .short PE32_PLUS_HEADER_MAGIC // support::ulittle16_t Magic; .byte 0 // uint8_t MajorLinkerVersion; .byte 0 // uint8_t MinorLinkerVersion; .long _end - dos_header // support::ulittle32_t SizeOfCode; .long 0 // support::ulittle32_t SizeOfInitializedData; .long 0 // support::ulittle32_t SizeOfUninitializedData; .long _start - dos_header // support::ulittle32_t AddressOfEntryPoint; .long dos_header - dos_header // support::ulittle32_t BaseOfCode; .quad 0 // support::ulittle64_t ImageBase; .long 512 // support::ulittle32_t SectionAlignment; .long 512 // support::ulittle32_t FileAlignment; .short 0 // support::ulittle16_t MajorOperatingSystemVersion; .short 0 // support::ulittle16_t MinorOperatingSystemVersion; .short 0 // support::ulittle16_t MajorImageVersion; .short 0 // support::ulittle16_t MinorImageVersion; .short 0 // support::ulittle16_t MajorSubsystemVersion; .short 0 // support::ulittle16_t MinorSubsystemVersion; .long 0 // support::ulittle32_t Win32VersionValue; .long _end - dos_header // support::ulittle32_t SizeOfImage; .long end_of_header - dos_header // support::ulittle32_t SizeOfHeaders; .long 0 // support::ulittle32_t CheckSum; .short IMAGE_SUBSYSTEM_EFI_APPLICATION // support::ulittle16_t Subsystem; .short 0 // support::ulittle16_t DLLCharacteristics; .quad 0 // support::ulittle64_t SizeOfStackReserve; .quad 0 // support::ulittle64_t SizeOfStackCommit; .quad 0 // support::ulittle64_t SizeOfHeapReserve; .quad 0 // support::ulittle64_t SizeOfHeapCommit; .long 0 // support::ulittle32_t LoaderFlags; // 16 data directories in total .long 16 // support::ulittle32_t NumberOfRvaAndSize; // The following are data directories mostly for place holder purpose for now. Entries // such as certification_table might be needed for secure boot in the future. DATA_DIRECTORY export_table DATA_DIRECTORY import_table DATA_DIRECTORY resource_table DATA_DIRECTORY exception_table DATA_DIRECTORY certification_table DATA_DIRECTORY base_relocation_table DATA_DIRECTORY debug DATA_DIRECTORY architecture_data DATA_DIRECTORY global_ptr DATA_DIRECTORY tls_table DATA_DIRECTORY load_config_table DATA_DIRECTORY bound_inport DATA_DIRECTORY import_address_table DATA_DIRECTORY delay_import_descriptor DATA_DIRECTORY CLR_runtime_header .quad 0 // Section Table section_table_start: // .reloc. May be expected by some PE32+ loader reloc_section: .ascii ".reloc" .byte 0 .byte 0 // 8 bytes of `char Name[COFF::NameSize];` .long 0 // support::ulittle32_t VirtualSize; .long 0 // support::ulittle32_t VirtualAddress; .long 0 // support::ulittle32_t SizeOfRawData; .long 0 // support::ulittle32_t PointerToRawData; .long 0 // support::ulittle32_t PointerToRelocations; .long 0 // support::ulittle32_t PointerToLinenumbers; .short 0 // support::ulittle16_t NumberOfRelocations; .short 0 // support::ulittle16_t NumberOfLinenumbers; // https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#section-flags // We use the same value as Clang would generate with "-Wl,/subsystem:efi_application" // IMAGE_SCN_CNT_INITIALIZED_DATA | IMAGE_SCN_MEM_DISCARDABLE | // IMAGE_SCN_MEM_READ .long 0x42000040 // support::ulittle32_t Characteristics; // .text text_section: .ascii ".text" .byte 0 .byte 0 .byte 0 // 8 bytes of `char Name[COFF::NameSize];` .long _end - end_of_header // support::ulittle32_t VirtualSize; .long end_of_header - dos_header // support::ulittle32_t VirtualAddress; .long _end - end_of_header // support::ulittle32_t SizeOfRawData; .long end_of_header - dos_header // support::ulittle32_t PointerToRawData; .long 0 // support::ulittle32_t PointerToRelocations; .long 0 // support::ulittle32_t PointerToLinenumbers; .short 0 // support::ulittle16_t NumberOfRelocations; .short 0 // support::ulittle16_t NumberOfLinenumbers; // IMAGE_SCN_CNT_CODE | IMAGE_SCN_CNT_INITIALIZED_DATA | // IMAGE_SCN_MEM_EXECUTE | IMAGE_SCN_MEM_READ // We use the same value as Clang would generate with "-Wl,/subsystem:efi_application" .long 0x60000020 // support::ulittle32_t Characteristics; end_of_header: // Traditionally, PE/COFF header occupies the entire first page. We keep this pattern. .align 9 _start: // Behave like a function call. addi sp, sp, -8*3 sd ra, 0(sp) sd s0, 8(sp) sd s1, 16(sp) // Save the EFI image handle from a0 mv s0, a0 // Save the EFI system table from a1 mv s1, a1 // Get the program load address (same as dos_header), and .dynamic section address. lla a0, dos_header lla a1, _DYNAMIC // Apply relocation fixup call ApplyRelocationHangIfFail // Now call efi_main. mv a0, s0 mv a1, s1 call efi_main // Prepare to return. ld ra, 0(sp) ld s0, 8(sp) ld s1, 16(sp) add sp, sp, 8*3 ret
UnpluggedAOSP12/bootable_libbootloader
1,706
gbl/libboot/aarch64_cache_helper/disable_cache_mmu.S
/* * Copyright (C) 2023 The Android Open Source Project * * Licensed under the Apache License, Version 2.0 (the "License"); * you may not use this file except in compliance with the License. * You may obtain a copy of the License at * * http://www.apache.org/licenses/LICENSE-2.0 * * Unless required by applicable law or agreed to in writing, software * distributed under the License is distributed on an "AS IS" BASIS, * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. * See the License for the specific language governing permissions and * limitations under the License. */ #include <arch.h> .global disable_cache_mmu_and_jump /* --------------------------------------------------------------- * Disable cache, MMU and jump to the given address with arguments * * x0 - x3: Arguments for the target jump address. * x4: The jump address. * --------------------------------------------------------------- */ disable_cache_mmu_and_jump: // Query current EL mrs x5, CurrentEL cmp x5, #(1 << 3) beq asm_disable_cache_mmu_el2 /* * Invalidate instruction cache before disabling it. */ ic iallu isb asm_disable_cache_mmu_el1: mrs x5, sctlr_el1 bic x5, x5, #SCTLR_M_BIT bic x5, x5, #SCTLR_C_BIT bic x5, x5, #SCTLR_I_BIT msr sctlr_el1, x5 b asm_finish asm_disable_cache_mmu_el2: mrs x5, sctlr_el2 bic x5, x5, #SCTLR_M_BIT bic x5, x5, #SCTLR_C_BIT bic x5, x5, #SCTLR_I_BIT msr sctlr_el2, x5 asm_finish: ic iallu isb /* * Invalidate TLB. */ tlbi vmalle1 br x4 /* * Prevent speculative execution. */ dsb nsh isb
UnpluggedAOSP12/bootable_libbootloader
1,306
gbl/libboot/aarch64_cache_helper/include/common/asm_macros_common.S
/* * Copyright (C) 2023 The Android Open Source Project * * Licensed under the Apache License, Version 2.0 (the "License"); * you may not use this file except in compliance with the License. * You may obtain a copy of the License at * * http://www.apache.org/licenses/LICENSE-2.0 * * Unless required by applicable law or agreed to in writing, software * distributed under the License is distributed on an "AS IS" BASIS, * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. * See the License for the specific language governing permissions and * limitations under the License. */ /* * This file replaces "external/arm-trusted-firmware/include/common/asm_macros_common.S" for * building "external/arm-trusted-firmware/lib/aarch64/cache_helper.S". It defines the "func" * macro for declaring assembly function. However the original file uses assembly directives * such as ".size" for debug information which are not recogized by LLVM when building for * windows/msvc target. Thus we use our custom definition to workaround. */ /* * This macro marks the begin of a function. It simply creates a label. */ .macro func _name \_name: .endm /* * This macro is used to mark the end of a function. For our usage, it's simply a noop. */ .macro endfunc _name .endm
unvariant/advent-of-code-2024
2,033
src/day4.s
.pushsection .text inline: push rbp push rbx push r15 push r14 push r13 push r12 vpbroadcastb ymm4, byte ptr [rip + ascii_x] vmovdqu ymm0, ymmword ptr [rdi] vmovdqu ymm8, ymmword ptr [rdi + 141 * 0 + 32 * 0] vpcmpeqb ymm9, ymm8, ymm4 vpcmpeqb ymm10, ymm8, ymm5 vpcmpeqb ymm11, ymm8, ymm6 vpcmpeqb ymm12, ymm8, ymm7 vpmovmskb eax, ymm9 vpmovmskb edx, ymm10 vpmovmskb ecx, ymm11 vpmovmskb ebx, ymm12 vpinsrd xmm16, eax, 0 vpinsrd xmm17, edx, 0 vpinsrd xmm18, ecx, 0 vpinsrd xmm19, ebx, 0 vmovdqu ymm8, ymmword ptr [rdi + 141 * 0 + 32 * 1] vpcmpeqb ymm9, ymm8, ymm4 vpcmpeqb ymm10, ymm8, ymm5 vpcmpeqb ymm11, ymm8, ymm6 vpcmpeqb ymm12, ymm8, ymm7 vpmovmskb eax, ymm9 vpmovmskb edx, ymm10 vpmovmskb ecx, ymm11 vpmovmskb ebx, ymm12 vpinsrd xmm16, eax, 1 vpinsrd xmm17, edx, 1 vpinsrd xmm18, ecx, 1 vpinsrd xmm19, ebx, 1 vmovdqu ymm8, ymmword ptr [rdi + 141 * 0 + 32 * 2] vpcmpeqb ymm9, ymm8, ymm4 vpcmpeqb ymm10, ymm8, ymm5 vpcmpeqb ymm11, ymm8, ymm6 vpcmpeqb ymm12, ymm8, ymm7 vpmovmskb eax, ymm9 vpmovmskb edx, ymm10 vpmovmskb ecx, ymm11 vpmovmskb ebx, ymm12 vpinsrd xmm16, eax, 2 vpinsrd xmm17, edx, 2 vpinsrd xmm18, ecx, 2 vpinsrd xmm19, ebx, 2 vmovdqu ymm8, ymmword ptr [rdi + 141 * 0 + 32 * 3] vpcmpeqb ymm9, ymm8, ymm4 vpcmpeqb ymm10, ymm8, ymm5 vpcmpeqb ymm11, ymm8, ymm6 vpcmpeqb ymm12, ymm8, ymm7 vpmovmskb eax, ymm9 vpmovmskb edx, ymm10 vpmovmskb ecx, ymm11 vpmovmskb ebx, ymm12 vpinsrd xmm16, eax, 3 vpinsrd xmm17, edx, 3 vpinsrd xmm18, ecx, 3 vpinsrd xmm19, ebx, 3 mov r15, 140 1: dec r15 jne 1b pop r12 pop r13 pop r14 pop r15 pop rbx pop rbp ret .popsection .pushsection .data ascii_x: .byte 'X' ascii_m: .byte 'M' ascii_a: .byte 'A' ascii_s: .byte 'S' .popsection
uzogoduyah/uzogoduyah-gmail.com
14,166
contents/tree_traversal/code/asm-x64/tree_traversal.s
.intel_syntax noprefix # System V calling convention cheatsheet # Params: rdi, rsi, rdx, rcx, r8, r9, xmm0-7 # Return: rax (int 64 bits), rax:rdx (int 128 bits), xmm0 (float) # Callee cleanup: rbx, rbp, r12-15 # Scratch: rax, rdi, rsi, rdx, rcx, r8, r9, r10, r11 .section .rodata not_bt: .string "This is not a binary tree.\n" fmt_tree: .string "%d \n" .equ stack_size, 16 .equ stack_array, 0 .equ stack_top, 8 .equ stack_cap, 12 .equ queue_size, 20 .equ queue_array, 0 .equ queue_front, 8 .equ queue_back, 12 .equ queue_cap, 16 .equ tree_children, 0 .equ tree_num_children, 8 .equ tree_value, 12 .equ tree_size, 16 .section .text .global main .extern printf, malloc, free, memcpy # rdi - stack ptr get_stack: push r12 mov r12, rdi mov rdi, 32 # Creating a 32 byte array call malloc mov QWORD PTR [r12], rax # Saving the data into the stack mov DWORD PTR [r12 + 8], 0 mov DWORD PTR [r12 + 12], 32 pop r12 ret # rdi - stack ptr # rsi - element ptr stack_push: push r12 push r13 push r14 mov r12, rdi # Saving the variables mov r13, rsi mov r14d, DWORD PTR [r12 + 8] mov esi, DWORD PTR [r12 + 12] cmp rsi, r14 # Check if top is equal to capacity jne stack_push_append shl rsi, 1 # Calculate new capacity in bytes mov DWORD PTR [r12 + 12], esi # Saving new capcaity mov rdi, [r12] call realloc # Making the array bigger mov QWORD PTR [r12], rax stack_push_append: add r14, 8 mov rax, QWORD PTR [r12] lea rax, [rax + r14] mov QWORD PTR [rax], r13 # Saving element and new top mov DWORD PTR [r12 + 8], r14d pop r14 pop r13 pop r12 ret # rdi - stack ptr # RET rax - element ptr stack_pop: push r12 mov r12d, DWORD PTR [rdi + 8] # Get top test r12, r12 # Check if top is zero jne stack_pop_element xor rax, rax # Return 0 jmp stack_pop_return stack_pop_element: mov rax, [rdi] lea rax, [rax + r12] # Get the element mov rax, QWORD PTR [rax] sub r12, 8 # Subtract 1 from top and save it mov DWORD PTR [rdi + 8], r12d stack_pop_return: pop r12 ret # rdi - stack ptr free_stack: mov rdi, QWORD PTR [rdi] call free # Free stack array ret # rdi - queue ptr get_queue: push r12 mov r12, rdi mov rdi, 32 # Create a 32 byte array call malloc mov QWORD PTR [r12], rax # Saving data to the queue pointer mov QWORD PTR [r12 + 8], 0 mov DWORD PTR [r12 + 16], 32 pop r12 ret # rdi - queue ptr queue_resize: push r12 push r13 push r14 mov r12, rdi mov edi, DWORD PTR [r12 + 16] # Get new capacity and create new array shl rdi, 1 call malloc mov r13, rax mov r14, QWORD PTR[r12] mov rdi, r13 # Copy data from front to capacity mov eax, DWORD PTR [r12 + 8] lea rsi, [r14 + rax] mov edx, DWORD PTR [r12 + 16] sub edx, DWORD PTR [r12 + 8] call memcpy mov eax, DWORD PTR [r12 + 16] # Copy data from start of array to front sub eax, DWORD PTR [r12 + 8] lea rdi, [r13 + rax] mov rsi, r14 mov edx, DWORD PTR [r12 + 8] call memcpy mov rdi, r14 # New array has front at 0 and back at the old capacity call free # So free the old array then save the new queue mov QWORD PTR [r12], r13 mov eax, DWORD PTR [r12 + 16] sub rax, 8 mov DWORD PTR [r12 + 12], eax mov DWORD PTR [r12 + 8], 0 mov eax, DWORD PTR [r12 + 16] shl rax, 1 mov DWORD PTR [r12 + 16], eax pop r14 pop r13 pop r12 ret # rdi - queue ptr # rsi - element enqueue: push r12 push r13 push r14 push r15 mov r12, rdi # Saving parameters mov r13, rsi mov r14d, DWORD PTR [rdi + 8] mov eax, DWORD PTR [rdi + 12]# Calculating new back add eax, 8 mov edi, DWORD PTR [r12 + 16] cdq idiv edi cmp rdx, r14 # Check if front and new back are equal jne enqueue_append mov rdi, r12 # If so resize the queue call queue_resize enqueue_append: mov r14, QWORD PTR [r12] # Saving the element mov r15d, DWORD PTR [r12 + 12] lea r14, [r14 + r15] mov QWORD PTR [r14], r13 mov r14d, DWORD PTR [r12 + 16]# Calculating new back and then saving it add r15, 8 mov rax, r15 cdq idiv r14d mov DWORD PTR [r12 + 12], edx pop r15 pop r14 pop r13 pop r12 ret # rdi - queue ptr # RET rax - element dequeue: push r12 push r13 mov r12d, DWORD PTR [rdi + 8] # Check if queue is empty mov r13d, DWORD PTR [rdi + 12] xor rax, rax cmp r12, r13 je dequeue_return # if empty return null mov r12, QWORD PTR [rdi] # else return element pointer mov r13d, DWORD PTR [rdi + 8] lea r13, [r12 + r13] mov eax, DWORD PTR [rdi + 8] add eax, 8 mov r12d, DWORD PTR [rdi + 16] # Calculate new front cdq idiv r12d mov DWORD PTR [rdi + 8], edx # Save new front mov rax, QWORD PTR [r13] dequeue_return: pop r13 pop r12 ret # rdi - queue ptr free_queue: mov rdi, QWORD PTR [rdi] # Free queue array call free ret # rdi - levels # rsi - children_size # RET rax:rdx - the tree - children|value|children_size create_tree: push rbx push r12 push r13 push r14 push r15 mov r12, rdi mov r13, rsi test rdi, rdi jz create_tree_leaf mov r14, rsi # We'll allocate sizeof(tree) * children_size bytes of memory shl r14, 4 # save the size calculation to a callee-saved register so we can reuse it after the malloc mov rdi, r14 call malloc mov r15, rax # Save the children address twice, once for the return value, once for the loop variable mov rbx, rax lea r14, [rax + r14] # Calculate the address of the element after last of the children array create_tree_children: cmp rbx, r14 je create_tree_return lea rdi, [r12 - 1] # levels - 1 mov rsi, r13 call create_tree mov QWORD PTR [rbx], rax # Save the created tree to memory mov QWORD PTR [rbx + 8], rdx # The offset of children_size, writing out explicitly would've made the line way too long add rbx, tree_size jmp create_tree_children create_tree_leaf: mov r15, 0 xor r13, r13 # Leaves won't have any children create_tree_return: mov rax, r15 # The children pointer will be in r15 mov rdx, r12 shl rdx, 32 # The tree's value will be the current "levels" shl r13, 4 or rdx, r13 # Generate the return value by moving the value to the upper 32 bits pop r15 pop r14 pop r13 pop r12 pop rbx ret # rdi - children ptr # rsi - children size free_tree: push r12 push r13 push r14 push r15 test rdi, rdi # Make sure the pointer is non-zero jz free_tree_return mov r12, rdi # Saving array lea r13, [r12 + rsi] # Get start and end of the array mov r14, r12 free_tree_free_kid: cmp r14, r13 # Loop thought the array and free all children je free_tree_free_array mov rdi, QWORD PTR [r14] mov esi, DWORD PTR [r14 + 8] call free_tree add r14, tree_size jmp free_tree_free_kid free_tree_free_array: mov rdi, r12 # Free the array call free free_tree_return: pop r15 pop r14 pop r13 pop r12 ret # rdi - children ptr # rsi - value|children_size dfs_recursive: push r12 push r13 mov r12, rdi mov r13, rsi mov rdi, OFFSET fmt_tree # Handle the current node shr rsi, 32 # The tree value is in the upper 32 bits xor rax, rax call printf mov r13d, r13d # Zero out the top 32 bits add r13, r12 # Pointer pointing after the last element of the children array dfs_recursive_children: cmp r12, r13 # If we reached the end, return je dfs_recursive_return mov rdi, QWORD PTR [r12] mov rsi, QWORD PTR [r12 + 8] call dfs_recursive add r12, tree_size jmp dfs_recursive_children dfs_recursive_return: pop r13 pop r12 ret # rdi - children ptr # rsi - value|children_size dfs_recursive_postorder: push r12 push r13 push r14 mov r12, rdi mov r13, rsi mov r14, rsi mov r13d, r13d # Zero out the top 32 bits add r13, r12 # Pointer pointing after the last element of the children array dfs_recursive_po_children: cmp r12, r13 # If we reached the end, return je dfs_recursive_po_return mov rdi, QWORD PTR [r12] mov rsi, QWORD PTR [r12 + 8] call dfs_recursive_postorder add r12, tree_size jmp dfs_recursive_po_children dfs_recursive_po_return: mov rdi, OFFSET fmt_tree # Handle the current node mov rsi, r14 shr rsi, 32 # The tree value is in the upper 32 bits xor rax, rax call printf pop r14 pop r13 pop r12 ret # rdi - children ptr # rsi - value|children_size dfs_recursive_inorder_btree: push r12 push r13 mov r12, rdi mov r13, rsi mov rax, rsi mov eax, eax cmp rax, 0 # Check what type of tree it is. je dfs_recursive_bt_size0 cmp rax, 16 je dfs_recursive_bt_size1 cmp rax, 32 je dfs_recursive_bt_size2 mov rdi, OFFSET not_bt # If the tree is not binary then print a warning xor rax, rax call printf jmp dfs_recursive_bt_return dfs_recursive_bt_size0: mov rdi, OFFSET fmt_tree # If the node is a leaf then print its id shr rsi, 32 xor rax, rax call printf jmp dfs_recursive_bt_return dfs_recursive_bt_size1: mov rdi, QWORD PTR [r12] # If the node has 1 child then call the function and print the id mov rsi, QWORD PTR [r12 + 8] call dfs_recursive_inorder_btree mov rdi, OFFSET fmt_tree mov rsi, r13 shr rsi, 32 xor rax, rax call printf jmp dfs_recursive_bt_return dfs_recursive_bt_size2: mov rdi, QWORD PTR [r12] # Same as above just print id inbetween the calls mov rsi, QWORD PTR [r12 + 8] call dfs_recursive_inorder_btree mov rdi, OFFSET fmt_tree mov rsi, r13 shr rsi, 32 xor rax, rax call printf mov rdi, QWORD PTR [r12 + 16] mov rsi, QWORD PTR [r12 + 24] call dfs_recursive_inorder_btree dfs_recursive_bt_return: pop r13 pop r12 ret # rdi - children ptr # rsi - value|children_size dfs_stack: push r12 push r13 push r14 sub rsp, 16 # Create stack mov r12, rsp push rsi # Save node to use as pointer push rdi mov rdi, r12 call get_stack # Init stack mov rdi, r12 mov rsi, rsp call stack_push # Push node mov rdi, r12 # Pop stack call stack_pop dfs_stack_loop: test rax, rax # Test if stack is empty jz dfs_stack_return mov r13, rax mov rdi, OFFSET fmt_tree # Print id mov esi, DWORD PTR [r13 + 12] xor rax, rax call printf mov eax, DWORD PTR [r13 + 8] # Get start and end of array mov r13, QWORD PTR [r13] lea r14, [r13 + rax] dfs_stack_push_child: cmp r13, r14 # Check if the pointers are the same je dfs_stack_end_push mov rdi, r12 # Push node into the stack mov rsi, r13 call stack_push add r13, tree_size jmp dfs_stack_push_child dfs_stack_end_push: mov rdi, r12 # Pop stack call stack_pop jmp dfs_stack_loop dfs_stack_return: mov rdi, r12 # Free stack call free_stack add rsp, 32 pop r14 pop r13 pop r12 ret # rdi - children ptr # rsi - value|children_size bfs_queue: push r12 push r13 push r14 sub rsp, 20 # Create queue mov r12, rsp push rsi # Save node to use as pointer push rdi mov rdi, r12 call get_queue # Init queue mov rdi, r12 mov rsi, rsp call enqueue # enqueue node mov eax, DWORD PTR [r12 + 8] mov edi, DWORD PTR [r12 + 12] bfs_queue_loop: cmp eax, edi je bfs_queue_return mov rdi, r12 # dequeue call dequeue test rax, rax # Test if queue is empty jz bfs_queue_return mov r13, rax mov rdi, OFFSET fmt_tree # Print id mov esi, DWORD PTR [r13 + 12] xor rax, rax call printf mov eax, DWORD PTR [r13 + 8] # Get start and end of array mov r13, QWORD PTR [r13] lea r14, [r13 + rax] bfs_queue_push_child: cmp r13, r14 # Check if the pointers are the same je bfs_queue_end_push mov rdi, r12 # enqueue node mov rsi, r13 call enqueue add r13, tree_size jmp bfs_queue_push_child bfs_queue_end_push: mov eax, DWORD PTR [r12 + 8] mov edi, DWORD PTR [r12 + 12] jmp bfs_queue_loop bfs_queue_return: mov rdi, r12 # Free queue call free_queue add rsp, 36 pop r14 pop r13 pop r12 ret main: push r12 push r13 mov rdi, 3 mov rsi, 3 call create_tree mov r12, rax mov r13, rdx mov rdi, rax mov rsi, rdx call bfs_queue mov rdi, r12 mov rsi, r13 mov esi, esi call free_tree pop r13 pop r12 ret
uzogoduyah/uzogoduyah-gmail.com
2,489
contents/monte_carlo_integration/code/asm-x64/monte_carlo.s
.intel_syntax noprefix .section .rodata pi: .double 3.141592653589793 one: .double 1.0 four: .double 4.0 hundred: .double 100.0 rand_max: .long 4290772992 .long 1105199103 fabs_const: .long 4294967295 .long 2147483647 .long 0 .long 0 estimate_fmt: .string "The estaimate of pi is %lf\n" error_fmt: .string "Percentage error: %0.2f\n" .section .text .global main .extern printf, srand, time, rand # xmm0 - x # xmm1 - y # RET rax - bool in_circle: mulsd xmm0, xmm0 # Calculate x * x + y * y mulsd xmm1, xmm1 addsd xmm0, xmm1 movsd xmm1, one # Set circle radius to 1 xor rax, rax comisd xmm1, xmm0 # Return bool xmm0 < xmm1 seta al ret # rdi - samples # RET xmm0 - estimate monte_carlo: pxor xmm2, xmm2 # Setting it to zero for loop cvtsi2sd xmm3, rdi # From int to double pxor xmm4, xmm4 # Setting to zero for counter monte_carlo_iter: comisd xmm2, xmm3 # Check if we went through all samples je monte_carlo_return call rand # Get random point in the first quartile cvtsi2sd xmm0, rax divsd xmm0, rand_max call rand cvtsi2sd xmm1, rax divsd xmm1, rand_max call in_circle # Check if its in the circle test rax, rax jz monte_carlo_false addsd xmm4, one # if so increment counter monte_carlo_false: addsd xmm2, one jmp monte_carlo_iter monte_carlo_return: mulsd xmm4, four # Return estimate divsd xmm4, xmm2 movsd xmm0, xmm4 ret main: push rbp sub rsp, 16 mov rdi, 0 call time mov rdi, rax call srand mov rdi, 1000000 call monte_carlo movsd QWORD PTR [rsp], xmm0 # Save estimate to stack mov rdi, OFFSET estimate_fmt # Print estimate mov rax, 1 call printf movsd xmm0, QWORD PTR [rsp] # Get estimate from stack movsd xmm1, pi # Calculate fabs(M_PI - estimate) subsd xmm0, xmm1 movq xmm1, fabs_const andpd xmm0, xmm1 divsd xmm0, pi # Print percentage error on pi mulsd xmm0, hundred mov rdi, OFFSET error_fmt mov rax, 1 call printf add rsp, 16 pop rbp xor rax, rax # Set exit code to 0 ret
uzogoduyah/uzogoduyah-gmail.com
4,183
contents/verlet_integration/code/asm-x64/verlet.s
.intel_syntax noprefix .section .rodata zero: .double 0.0 two: .double 2.0 half: .double 0.5 verlet_fmt: .string "[#]\nTime for Verlet integration is:\n%lf\n" stormer_fmt: .string "[#]\nTime for Stormer Verlet Integration is:\n%lf\n[#]\nVelocity for Stormer Verlet Integration is:\n%lf\n" velocity_fmt: .string "[#]\nTime for Velocity Verlet Integration is:\n%lf\n[#]\nVelocity for Velocity Verlet Integration is:\n%lf\n" pos: .double 5.0 acc: .double -10.0 dt: .double 0.01 .section .text .global main .extern printf # xmm0 - pos # xmm1 - acc # xmm2 - dt # RET xmm0 - time verlet: pxor xmm7, xmm7 # Holds 0 for comparisons pxor xmm3, xmm3 # Holds time value comisd xmm0, xmm7 # Check if pos is greater then 0.0 jbe verlet_return movsd xmm6, xmm1 # xmm6 = acc * dt * dt mulsd xmm6, xmm2 mulsd xmm6, xmm2 movsd xmm5, xmm0 # Holds previous position verlet_loop: addsd xmm3, xmm2 # Adding dt to time movsd xmm4, xmm0 # Hold old value of posistion addsd xmm0, xmm0 # Calculating new position subsd xmm0, xmm5 addsd xmm0, xmm6 movsd xmm5, xmm4 comisd xmm0, xmm7 # Check if position is greater then 0.0 ja verlet_loop verlet_return: movsd xmm0, xmm3 # Saving time value ret # xmm0 - pos # xmm1 - acc # xmm2 - dt # RET xmm0 - time # RET xmm1 - velocity stormer_verlet: pxor xmm7, xmm7 # Holds 0 for comparisons pxor xmm3, xmm3 # Holds time value comisd xmm0, xmm7 # Check if pos is greater then 0.0 jbe stormer_verlet_return movsd xmm6, xmm1 # xmm6 = acc * dt * dt mulsd xmm6, xmm2 mulsd xmm6, xmm2 movsd xmm5, xmm0 # Holds previous position stormer_verlet_loop: addsd xmm3, xmm2 # Adding dt to time movsd xmm4, xmm0 # Hold old value of posistion addsd xmm0, xmm0 # Calculating new position subsd xmm0, xmm5 addsd xmm0, xmm6 movsd xmm5, xmm4 comisd xmm0, xmm7 # Check if position is greater then 0.0 ja stormer_verlet_loop stormer_verlet_return: movsd xmm0, xmm3 # Saving time and velocity mulsd xmm3, xmm1 movsd xmm1, xmm3 ret # xmm0 - pos # xmm1 - acc # xmm2 - dt # RET xmm0 - time # RET xmm1 - velocity velocity_verlet: pxor xmm7, xmm7 # Holds 0 for comparisons pxor xmm3, xmm3 # Holds the velocity value pxor xmm4, xmm4 # Holds the time value comisd xmm0, xmm7 # Check if pos is greater then 0.0 jbe velocity_verlet_return movsd xmm5, half # xmm5 = 0.5 * dt * dt * acc mulsd xmm5, xmm2 mulsd xmm5, xmm2 mulsd xmm5, xmm1 velocity_verlet_loop: movsd xmm6, xmm3 # Move velocity into register mulsd xmm6, xmm2 # Calculate new position addsd xmm6, xmm5 addsd xmm0, xmm6 addsd xmm4, xmm2 # Incrementing time movsd xmm3, xmm4 # Updating velocity mulsd xmm3, xmm1 comisd xmm0, xmm7 ja velocity_verlet_loop velocity_verlet_return: movsd xmm0, xmm4 # Saving time and velocity movsd xmm1, xmm3 ret main: push rbp movsd xmm0, pos # Calling verlet movsd xmm1, acc movsd xmm2, dt call verlet mov rdi, OFFSET verlet_fmt # Print output mov rax, 1 call printf movsd xmm0, pos # Calling stormer_verlet movsd xmm1, acc movsd xmm2, dt call stormer_verlet mov rdi, OFFSET stormer_fmt # Print output mov rax, 1 call printf movsd xmm0, pos # Calling velocity_verlet movsd xmm1, acc movsd xmm2, dt call velocity_verlet mov rdi, OFFSET velocity_fmt # Print output mov rax, 1 call printf pop rbp xor rax, rax # Set exit code to 0 ret
uzogoduyah/uzogoduyah-gmail.com
1,840
contents/euclidean_algorithm/code/asm-x64/euclidean_example.s
.intel_syntax noprefix .section .rodata euclid_mod_fmt: .string "[#]\nModulus-based euclidean algorithm result:\n%d\n" euclid_sub_fmt: .string "[#]\nSubtraction-based euclidean algorithm result:\n%d\n" .section .text .global main .extern printf # rdi - a # rsi - b # RET rax - gcd of a and b euclid_mod: mov rax, rdi # Get abs of a sar rax, 31 xor rdi, rax sub rdi, rax mov rax, rsi # Get abs of b sar rax, 31 xor rsi, rax sub rsi, rax jmp mod_check mod_loop: xor rdx, rdx # Take the mod of a and b mov rax, rdi div rsi mov rdi, rsi # Set b to the mod of a and b mov rsi, rdx # Set a to b mod_check: cmp rsi, 0 # Check if b is non-zero jne mod_loop mov rax, rdi # Return the result ret euclid_sub: mov rax, rdi # Get abs of a sar rax, 31 xor rdi, rax sub rdi, rax mov rax, rsi # Get abs of b sar rax, 31 xor rsi, rax sub rsi, rax jmp check loop: cmp rdi, rsi # Find which is bigger jle if_true sub rdi, rsi # If a is bigger then a -= b jmp check if_true: sub rsi, rdi # Else b -= a check: cmp rsi, rdi # Check if a and b are not equal jne loop mov rax, rdi # Return results ret main: mov rdi, 4288 # Call euclid_mod mov rsi, 5184 call euclid_mod mov rdi, OFFSET euclid_mod_fmt # Print output mov rsi, rax xor rax, rax call printf mov rdi, 1536 # Call euclid_sub mov rsi, 9856 call euclid_sub mov rdi, OFFSET euclid_sub_fmt # Print output mov rsi, rax xor rax, rax call printf xor rax, rax # Return 0 ret
uzogoduyah/uzogoduyah-gmail.com
2,783
contents/forward_euler_method/code/asm-x64/euler.s
.intel_syntax noprefix .section .rodata three: .double -3.0 fabs_const: .long 4294967295 .long 2147483647 .long 0 .long 0 inital_val: .double 1.0 threshold: .double 0.01 timestep: .double 0.01 error_fmt: .string "%f %f\n" fmt: .string "%d\n" .section .text .global main .extern printf .extern exp # rdi - array size # rsi - array ptr # xmm0 - timestep solve_euler: movsd xmm1, inital_val lea rax, [rsi + 8 * rdi + 8] # Set to end of the array solve_euler_loop: movsd xmm3, three # Set to -3.0 mulsd xmm2, xmm1 # xmm2 = -3.0 * array[i-1] * timestep mulsd xmm2, xmm0 subsd xmm1, xmm2 # xmm1 = xmm1 - xmm2 movsd QWORD PTR [rsi], xmm1 add rsi, 8 cmp rsi, rax # Test if we have gone through the array jne solve_euler_loop solve_euler_return: ret # rdi - array size # rsi - array ptr # xmm0 - timestep # xmm1 - threshold # RET rax - success code 0 if sucess else 1 check_result: push r12 push r13 xor rax, rax # Return code is 0 xor r12, r12 # The index is set to 0 mov r13, rdi # Moving array size to free rdi for printf movsd xmm2, xmm0 # Moving timestep to free xmm0 for exp jmp loop_check results_loop: cvtsi2sd xmm0, r12 # Making int to a double movsd xmm3, three # Calculating exp(-3.0 * i * timestep) mulsd xmm0, xmm3 mulsd xmm0, xmm2 call exp movsd xmm3, QWORD PTR [rsi + r12 * 8] # Calculating abs(array[i] - xmm0) subsd xmm2, xmm3 movq xmm3, fabs_const andpd xmm0, xmm3 comisd xmm0, xmm1 # Check if abs(...) > threshold jbe if_false mov rdi, OFFSET error_fmt # If true print out array[i] and solution mov rax, 1 call printf mov rax, 1 # and set sucess code to failed (rax = 1) if_false: add r12, 1 loop_check: cmp r12, r13 # Check if index is less the array size jle results_loop pop r13 pop r12 ret main: push rbp sub rsp, 800 # Making double array[100] mov rdi, 100 mov rsi, rsp movsd xmm0, timestep call solve_euler # Calling solve_euler mov rdi, 100 mov rsi, rsp movsd xmm0, timestep movsd xmm1, threshold call check_result # Check if results are correct mov rdi, OFFSET fmt mov rsi, rax xor rax, rax call printf # Print out success code add rsp, 800 # Deallocating array pop rbp xor rax, rax ret
uzogoduyah/uzogoduyah-gmail.com
24,157
contents/huffman_encoding/code/asm-x64/huffman.s
.intel_syntax noprefix # System V calling convention cheatsheet # Params: rdi, rsi, rdx, rcx, r8, r9, xmm0-7 # Return: rax (int 64 bits), rax:rdx (int 128 bits), xmm0 (float) # Callee cleanup: rbx, rbp, r12-15 # Scratch: rax, rdi, rsi, rdx, rcx, r8, r9, r10, r11 .section .rodata text: .string "bibbity bobbity" original: .string "Original message: %s\n" encoded: .string "Encoded message: " decoded: .string "Decoded message: %s\n" .equ bitstr_len, 32 .equ bitstr_size, 40 .equ codebook_size, 256 * bitstr_size .equ tree_left, 0 .equ tree_right, 8 .equ tree_count, 16 .equ tree_value, 20 .equ tree_size, 24 .equ heap_len, 0 .equ heap_data, 4 .equ heap_size, 512 * 8 + 16 # 512 ptrs + 4 byte length + 12 byte padding .equ counts_size, 256 * 4 .equ msg_len, 0 .equ msg_data, 8 .section .text .global main .extern printf, calloc, malloc, memset, puts main: push r12 push r13 sub rsp, codebook_size + 16 # 8 extra bytes for the Huffman-tree ptr, 8 bytes for padding # Print the original text mov rdi, OFFSET original mov rsi, OFFSET text xor rax, rax call printf # First encode the text. This will also initialize the Huffman-tree and the codebook mov rdi, OFFSET text mov rsi, rsp lea rdx, [rsp + codebook_size] call encode mov r12, rax # Save the returned message ptr # Print the codebook and the encoded message mov rdi, rsp call print_codebook mov rdi, OFFSET encoded xor rax, rax call printf mov rdi, r12 call print_message # Decode and print the message mov rdi, r12 mov rsi, QWORD PTR [rsp + codebook_size] call decode mov r13, rax mov rdi, OFFSET decoded mov rsi, r13 xor rax, rax call printf # Free allocated resources mov rdi, r12 call free mov rdi, r13 call free mov rdi, QWORD PTR [rsp + codebook_size] call free_tree add rsp, codebook_size + 16 pop r13 pop r12 # Indiciate success with a 0 exit code xor rax, rax ret # rdi - text # rsi - codebook ptr # rdx - Huffman-tree ptr # RET rax - encoded message ptr encode: push r12 push r13 push r14 mov r12, rdi # Save the original arguments mov r13, rsi mov r14, rdx call generate_tree # The text is already in rdi mov QWORD PTR [r14], rax # Save the Huffman-tree's root mov rdi, r13 # Set up the parameters for codebook generation: codebook ptr, Huffman-tree root mov rsi, rax call generate_codebook xor rax, rax xor r14, r14 # We'll use r14 to keep track of the length of the message mov rcx, r12 # Make a copy of the pointer to the message to be encoded encode_calculate_length: mov al, BYTE PTR [rcx] test al, al # If we're at the terminating null character then we're ready to encode jz encode_message lea rdx, [rax + 4*rax] # We get the codebook entry at the specific index lea r8, [r13 + 8*rdx] add r14, QWORD PTR [r8 + bitstr_len] # And add the encoded word length to the total inc rcx jmp encode_calculate_length encode_message: mov rdi, 1 lea rsi, [r14 + 7] # Calculate the number of bytes we need to allocate to fit all the bits shr rsi, 3 # length % 8 rounded up = (length + 8 - 1) / 8 lea rsi, [rsi + 8] # Make space for an 8-byte length field call calloc # Allocate the necessary memory, the message will be in rax mov QWORD PTR [rax], r14 # Save the length of the message # Registers: # - r12: text # - r13: codebook_ptr # - rax: message ptr # - free to use: rdi, rsi, rcx, rdx, r8, r9, r10, r11, r14 xor r8, r8 # Bit offset lea r9, [rax + 8] # 8-byte message block encode_message_bits: xor rdi, rdi # We need to clear rdi because moving a single byte to dil doesn't do so mov dil, BYTE PTR [r12] # Iterate the message again test dil, dil # If we're at the the null terminator we're done jz encode_done lea rdx, [rdi + 4*rdi] # Get the codebook entry lea r10, [r13 + 8*rdx] mov r11, QWORD PTR [r10 + bitstr_len] # Load the bitstring length lea r14, [r10] # The bitstring qword we're currently processing encode_message_bits_qword: mov rdi, QWORD PTR [r14] # Calculate the first mask: [code qword] << [bit offset] mov rsi, rdi # Get a second copy of the code's current qword mov rcx, r8 shl rdi, cl or QWORD PTR [r9], rdi # Apply the mask to the current block mov rcx, 64 # Calculate the second mask: [code qword] >> [64 - bit offset] sub rcx, r8 shr rsi, cl mov rcx, r11 # Copy the code length so we can manipulate it without destroying the original value sub rcx, 64 jle encode_message_bits_try_overflow # If the length was less than or equal to 64, check if the code qword would overflow the current message block mov r11, rcx # We wanted to subtract 64 from the code length anyway lea r9, [r9 + 8] # Load the next message block or QWORD PTR [r9], rsi # Save the second mask to the new message block jmp encode_message_bits_qword encode_message_bits_try_overflow: add rcx, r8 # Calculate [code length] + [bit offset] - 64 jl encode_calculate_new_bit_offset # If the result is less than 0 then we have no remaining bits -> calculate the new bit offset mov r8, rcx # Otherwise this also happens to be our new bit offset lea r9, [r9 + 8] # Load the next message block or QWORD PTR [r9], rsi # Save the second mask to the new message block inc r12 # Go to the next character in the input jmp encode_message_bits encode_calculate_new_bit_offset: lea r8, [r8 + r11] # Calculate the bit offset for the next code qword inc r12 jmp encode_message_bits encode_done: pop r14 pop r13 pop r12 ret # rdi - encoded message # rsi - Huffman-tree root (ptr) # RET rax - the decoded message decode: push r12 push r13 push r14 mov r12, rdi mov r13, rsi mov rdi, QWORD PTR [r12] # Load the length of the message mov r14, rdi # We'll use the length of the message as a loop counter later lea rdi, [rdi + 1] # The null terminator call malloc # This will usually be more than enough memory to contain the whole decoded message (we don't handle pathological cases right now) mov rdi, r12 # The single-character decoder doesn't touch rdi so we can hoist it before the loop xor rcx, rcx mov rdx, rax # The current byte in the output string decode_loop: cmp rcx, r14 # The encoded message bit counter jge decode_done mov rsi, r13 # The current node in the Huffman-tree decode_loop_char: test rsi, rsi # If the Huffman-tree node is null then we reached a dead-end -> start over jz decode_loop cmp QWORD PTR [rsi + tree_left], 0 # If the node has either a left or a right child, treat it as a branch jnz decode_loop_char_branch cmp QWORD PTR [rsi + tree_right], 0 jnz decode_loop_char_branch mov r9d, DWORD PTR [rsi + tree_value] # Load the value in this node in case the next iteration needs it mov BYTE PTR [rdx], r9b # And save it to the output lea rdx, [rdx + 1] # Advance the output string jmp decode_loop decode_loop_char_branch: mov r9, rcx # First, load the byte of the message the current bit is in shr r9, 3 mov r10b, BYTE PTR [rdi + r9 + msg_data] mov r11, rcx # Save rcx in another register temporarily so we can restore it without push/pop and rcx, 7 shr r10, cl # Get the bit we're interested in to position 0 lea rcx, [r11 + 1] # Restore rcx and immediately add 1 to get the next bit to decode and r10, 0x1 # Zero out all other bits mov r8, rsi mov rsi, QWORD PTR [r8 + tree_left] # Take the left branch for 0, the right branch for a non-zero bit cmovnz rsi, QWORD PTR [r8 + tree_right] jmp decode_loop_char decode_done: mov BYTE PTR [rdx], 0 # Write the null terminator at the end of the string pop r14 pop r13 pop r12 ret # rdi - The starting address of the codebook we want to generate # rsi - Huffman-tree root (ptr) generate_codebook: push r12 sub rsp, bitstr_size + 16 # 16 extra bytes for alignment mov r12, rsi xorps xmm0, xmm0 # Create a 0-initialized bitstring. This will be movaps XMMWORD PTR [rsp], xmm0 # used in the recursive function calls movaps XMMWORD PTR [rsp + 16], xmm0 mov QWORD PTR [rsp + 32], 0 xor rsi, rsi mov rdx, codebook_size call memset mov rdi, rax mov rsi, r12 mov rdx, rsp call generate_codebook_recurse add rsp, bitstr_size + 16 pop r12 ret # rdi - The codebook's starting address # rsi - The current Huffman-tree node # rdx - The bitstring used for code generation generate_codebook_recurse: push rbp push r12 push r13 test rsi, rsi # If we reached a null pointer we're done jz generate_codebook_recurse_done mov r12, rsi cmp QWORD PTR [r12 + tree_left], 0 # If at least one of the children is not null jnz generate_codebook_branch # then we need to treat the current node as a branch cmp QWORD PTR [r12 + tree_right], 0 jnz generate_codebook_branch mov r8d, DWORD PTR [r12 + tree_value] # Get the value of the current node movaps xmm0, XMMWORD PTR [rdx] # Get the values of the current bitstring into some registers movaps xmm1, XMMWORD PTR [rdx + 16] mov r9, QWORD PTR [rdx + 32] lea rax, [r8 + 4*r8] # The index calculation needs to add 40 * index. With lea arithmetic this can be represented as lea r10, [rdi + 8*rax] # base address + 8 * (5 * index). This is done in two lea instructions movups XMMWORD PTR [r10], xmm0 # And copy the data over to it movups XMMWORD PTR [r10 + 16], xmm1 mov QWORD PTR [r10 + 32], r9 jmp generate_codebook_recurse_done generate_codebook_branch: # First, calculate the necessary indices and bitmask to use for the bitstring mov r13, QWORD PTR [rdx + bitstr_len] # Load the current length of the bitstring mov rcx, r13 # This will be used to index into the bitstring data. We'll need two copies for it shr r13, 6 # We first get which 64 bit chunk of the bitstring we want to modify and rcx, 63 # Then the bit we want to change mov rbp, 1 # Generate the mask we'll use to set the correct bit shl rbp, cl # We'll start with the right branch or QWORD PTR [rdx + 8*r13], rbp # Set the bit inc QWORD PTR [rdx + bitstr_len] # Increase the bitstring length mov rsi, QWORD PTR [r12 + tree_right] call generate_codebook_recurse # Now we move on to the left branch: rbx - left child, r13 - bitstring index, rbp - mask not rbp and QWORD PTR [rdx + 8*r13], rbp mov rsi, QWORD PTR [r12 + tree_left] call generate_codebook_recurse dec QWORD PTR [rdx + bitstr_len] # Decrease the bitstring length generate_codebook_recurse_done: pop r13 pop r12 pop rbp ret # rdi - text # RET rax - Huffman-tree root (ptr) generate_tree: push r12 push r13 sub rsp, 5128 # 1024 bytes for the char counts, 4 bytes for heap length, 4096 bytes for the heap, 4 byte padding mov r12, rdi # Save the original text so it doesn't get clobbered mov rdi, rsp # Zero out the character counts and the heap length xor rsi, rsi mov rdx, 1040 call memset xor rax, rax generate_tree_count_chars: mov al, BYTE PTR [r12] test al, al jz generate_tree_leaves_setup inc DWORD PTR [rsp + 4*rax] inc r12 jmp generate_tree_count_chars generate_tree_leaves_setup: mov r12, 255 # The loop counter. We can only get here if the "test" on line 301 resulted in a zero so the next jl instruction will do the right thing generate_tree_leaves: jl generate_tree_one_leaf # If not then it's time to generate the branches mov r13d, DWORD PTR [rsp + 4*r12] # Load the count at the ith position test r13d, r13d # And check if it's zero jz generate_tree_leaves_counters # If it is we can skip this iteration mov rdi, 1 # If not, we need to allocate a new leaf node mov rsi, tree_size call calloc mov DWORD PTR [rax + tree_value], r12d # Save the value and the count to the tree mov DWORD PTR [rax + tree_count], r13d lea rdi, [rsp + counts_size] # Then push it onto the heap mov rsi, rax call heap_push generate_tree_leaves_counters: dec r12 # Decrement the loop counter and start over jmp generate_tree_leaves generate_tree_one_leaf: cmp DWORD PTR [rsp + counts_size], 1 # Check if there is only one element in the heap jne generate_tree_branches lea rdi, [rsp + counts_size] # Get the element call heap_pop mov r12, rax mov rdi, tree_size # Create the new tree node, the pointer to it will be in rax call malloc mov QWORD PTR [rax + tree_left], r12 # Save element in the left node mov ecx, DWORD PTR [r12 + tree_count] # Save element count in branch mov DWORD PTR [rax + tree_count], ecx jmp generate_tree_ret # Returning generate_tree_branches: cmp DWORD PTR [rsp + counts_size], 1 # Check if there are still at least two elements in the heap jle generate_tree_done # If not, we're done lea rdi, [rsp + counts_size] # Get the left child call heap_pop mov r12, rax lea rdi, [rsp + counts_size] # Get the right child call heap_pop mov r13, rax mov rdi, tree_size # Create the new tree node, the pointer to it will be in rax call malloc mov ecx, DWORD PTR [r12 + tree_count] # The new node's count: left count + right count add ecx, DWORD PTR [r13 + tree_count] mov QWORD PTR [rax + tree_left], r12 # Save the new node's fields: left, right, count (leave value unititialized, it shouldn't be used with branch nodes) mov QWORD PTR [rax + tree_right], r13 mov DWORD PTR [rax + tree_count], ecx lea rdi, [rsp + counts_size] # Add the branch to the heap mov rsi, rax call heap_push jmp generate_tree_branches generate_tree_done: lea rdi, [rsp + counts_size] # The tree's root will be in rax after the pop call heap_pop generate_tree_ret: add rsp, 5128 pop r13 pop r12 ret # rdi - heap ptr # rsi - tree ptr heap_push: lea rax, QWORD PTR [rdi + heap_data] # We load the heap's data ptr and length to the respective registers mov ecx, DWORD PTR [rdi + heap_len] # Load the current length lea edx, [ecx + 1] # First, calculate the new length (length + 1) mov DWORD PTR [rdi + heap_len], edx # Then save it mov QWORD PTR [rax + 8*rcx], rsi # And finally add the new value at the end of the array heap_push_sift_up: test rcx, rcx # Test if we got to the root (index == 0) jz heap_push_done lea rdx, [rcx - 1] # Calculate the parent index: (index - 1) / 2 shr rdx, 1 lea r8, [rax + 8*rcx] # Get the pointer to the current and parent elements lea r9, [rax + 8*rdx] mov r10, QWORD PTR [r8] # Load the current and the parent elements mov r11, QWORD PTR [r9] mov esi, DWORD PTR [r10 + tree_count] # Load the current tree's count cmp DWORD PTR [r11 + tree_count], esi # If parent count <= current count jle heap_push_done # Then we're done mov QWORD PTR [r8], r11 # Otherwise swap the two elements mov QWORD PTR [r9], r10 mov rcx, rdx jmp heap_push_sift_up heap_push_done: ret # rdi - heap ptr # RET rax - tree ptr heap_pop: mov r8d, DWORD PTR [rdi + heap_len] # Load the heap's length test r8d, r8d # If it's 0 then the heap's empty jz heap_empty lea rdx, [rdi + heap_data] # Get the heap's data ptr mov rax, QWORD PTR [rdx] # The return value will be the tree's current root lea r8d, [r8d - 1] # Calculate the new length mov DWORD PTR [rdi + heap_len], r8d # And save it mov rsi, QWORD PTR [rdx + 8*r8] # Load the element we're going to swap with the root mov QWORD PTR [rdx], rsi # Swap the root and the last element mov QWORD PTR [rdx + 8*r8], rax xor r9, r9 # The loop index heap_pop_sift_down: mov rcx, r9 # Save the target index at the start of the loop lea r10, [r9 + r9 + 1] # The left child index lea r11, [r9 + r9 + 2] # The right child index cmp r10, r8 jge heap_pop_check_right mov rdi, QWORD PTR [rdx + 8*r10] # Load the left child mov rsi, QWORD PTR [rdx + 8*rcx] # Load the target mov esi, DWORD PTR [rsi + tree_count] # Load the target tree count cmp DWORD PTR [rdi + tree_count], esi # If the left tree count < target tree count jge heap_pop_check_right mov rcx, r10 heap_pop_check_right: cmp r11, r8 jge heap_pop_compare_indices mov rdi, QWORD PTR [rdx + 8*r11] # Load the right child mov rsi, QWORD PTR [rdx + 8*rcx] # Load the target mov esi, DWORD PTR [rsi + tree_count] # Load the target tree count cmp DWORD PTR [rdi + tree_count], esi # If the right tree count < target tree count jge heap_pop_compare_indices mov rcx, r11 heap_pop_compare_indices: cmp r9, rcx # If the target index == current index we're done je heap_pop_done mov rdi, QWORD PTR [rdx + 8*r9] # Otherwise we swap the values mov rsi, QWORD PTR [rdx + 8*rcx] mov QWORD PTR [rdx + 8*r9], rsi mov QWORD PTR [rdx + 8*rcx], rdi mov r9, rcx jmp heap_pop_sift_down heap_empty: xor rax, rax # Return a null pointer to indicate the heap was empty heap_pop_done: ret # rdi - codebook start ptr print_codebook: push rbx push r12 sub rsp, 272 # The bitstring we're going to print mov r12, rdi xor rbx, rbx # Save the loop counter into a register that doesn't get clobbered print_codebook_loop: cmp rbx, 255 jg print_codebook_done lea rax, [rbx + 4*rbx] # We get the codebook entry at the specific index lea r10, [r12 + 8*rax] mov rdx, QWORD PTR [r10 + bitstr_len] # Load the length of the bitstring test rdx, rdx # If it's zero then the codepoint didn't exist in the original alphabet, skip jz print_codebook_counters print_codebook_char: mov BYTE PTR [rsp], bl # First, the character we're printing the code for mov WORD PTR [rsp + 1], 0x203a # Then ": " mov BYTE PTR [rsp + rdx + 3], 0x00 # At the end add the null terminator print_codebook_generate_binary: dec rdx jl print_codebook_binary mov r9, rdx # Two copies of the loop counter mov rcx, rdx shr r9, 6 # Calculate the bitstring part we're going to load and rcx, 63 # The bit we're interested in mov rsi, QWORD PTR [r10 + r9] # One of the 4, 64 bit parts of the bitstring we're going to print shr rsi, cl # Get the relevant bit into the 0th position and rsi, 1 # Mask the rest of the bits add rsi, '0' # Convert it to ASCII mov BYTE PTR [rsp + rdx + 3], sil # And copy it into the string jmp print_codebook_generate_binary print_codebook_binary: mov rdi, rsp # Print the current bitstring call puts print_codebook_counters: inc rbx # And go to the next codebook entry jmp print_codebook_loop print_codebook_done: add rsp, 272 pop r12 pop rbx ret # rdi - message ptr # This would run out of stack space for long messages but it will do for now print_message: push r12 push r13 mov r12, rdi mov r13, QWORD PTR [rdi] # Get the length of the message lea rdi, [r13 + 1] # For the length of the string we'll need an additional the null terminator call malloc xor rdx, rdx print_message_generate_string: cmp rdx, r13 jge print_message_puts mov r8, rdx # Get two copies of the current index mov rcx, rdx shr r8, 3 # We first get the byte we want to print mov r10b, BYTE PTR [r12 + r8 + msg_data] and rcx, 7 # Then the bit in that byte shr r10, cl and r10, 0x1 # Mask it so only the bit we're interested in is visible add r10, '0' # Convert it to ASCII mov BYTE PTR [rax + rdx], r10b # Write it into the printable string inc rdx jmp print_message_generate_string print_message_puts: mov BYTE PTR [rax + rdx], 0x00 # Write the null terminator mov rdi, rax # And print the string call puts pop r13 pop r12 ret # rdi - tree ptr free_tree: push rbx mov rbx, rdi test rbx, rbx # When the tree ptr we're trying to free is already null we reached the termination condition jz free_tree_done mov rdi, [rbx + tree_left] # Otherwise free the left child first call free_tree mov rdi, [rbx + tree_right] # Then the right child call free_tree mov rdi, rbx # And finally, the node itself call free free_tree_done: pop rbx ret
uzogoduyah/uzogoduyah-gmail.com
10,437
contents/cooley_tukey/code/asm-x64/fft.s
.intel_syntax noprefix .section .rodata two: .double 2.0 one: .double 1.0 two_pi: .double -6.28318530718 rand_max: .long 4290772992 .long 1105199103 fmt: .string "%g\n" .section .text .global main .extern printf, memset, memcpy, srand, rand, time, cexp, __muldc3, cabs, log2 # rdi - array ptr # rsi - array size dft: push rbx push r12 push r13 push r14 push r15 mov r12, rdi # Save parameters mov r13, rsi sub rsp, r13 # Make a double complex array xor r14, r14 # Set index to 0 dft_loop_i: cmp r14, r13 # Check if index is equal to array size je dft_end_i lea rax, [rsp + r14] # Set tmp array to zero at r14 mov QWORD PTR [rax], 0 mov QWORD PTR [rax + 8], 0 xor r15, r15 # Set second index to 0 dft_loop_j: cmp r15, r13 # Check if the index is equal to array size je dft_end_j movsd xmm1, two_pi # Calculate xmm1 = -2pi * i * j / N mov rax, r14 imul rax, r15 shr rax, 4 cvtsi2sdq xmm2, rax mulsd xmm1, xmm2 cvtsi2sdq xmm2, r13 divsd xmm1, xmm2 pxor xmm0, xmm0 # Set xmm0 to 0 call cexp lea rax, [r12 + r15] # Calculate X[i] * cexp(-2pi * i * j / N) movsd xmm2, QWORD PTR [rax] movsd xmm3, QWORD PTR [rax + 8] call __muldc3 lea rax, [rsp + r14] movsd xmm6, QWORD PTR [rax] # Sum to tmp array movsd xmm7, QWORD PTR [rax + 8] addsd xmm6, xmm0 addsd xmm7, xmm1 movsd QWORD PTR [rax], xmm6 # Save to tmp array movsd QWORD PTR [rax + 8], xmm7 add r15, 16 jmp dft_loop_j dft_end_j: add r14, 16 jmp dft_loop_i dft_end_i: mov rdi, r12 # Move tmp array to array ptr mov rsi, rsp mov rdx, r13 call memcpy add rsp, r13 pop r15 pop r14 pop r13 pop r12 pop rbx ret # rdi - array ptr # rsi - array size cooley_tukey: cmp rsi, 16 # Check if size if greater then 1 jle cooley_tukey_return push rbx push r12 push r13 push r14 push r15 mov r12, rdi # Save parameters mov r13, rsi mov r14, rsi # Save N / 2 shr r14, 1 sub rsp, r14 # Make a tmp array xor r15, r15 mov rbx, r12 cooley_tukey_spliting: cmp r15, r14 je cooley_tukey_split lea rax, [r12 + 2 * r15] # Moving all odd entries to the front of the array movaps xmm0, XMMWORD PTR [rax + 16] movaps xmm1, XMMWORD PTR [rax] movaps XMMWORD PTR [rsp + r15], xmm0 movaps XMMWORD PTR [rbx], xmm1 add rbx, 16 add r15, 16 jmp cooley_tukey_spliting cooley_tukey_split: mov rax, rsp lea rdi, [r12 + r13] cooley_tukey_mov_data: cmp rbx, rdi je cooley_tukey_moved movaps xmm0, XMMWORD PTR [rax] movaps XMMWORD PTR [rbx], xmm0 add rbx, 16 add rax, 16 jmp cooley_tukey_mov_data cooley_tukey_moved: add rsp, r14 mov rdi, r12 # Makking a recursive call mov rsi, r14 call cooley_tukey lea rdi, [r12 + r14] # Makking a recursive call mov rsi, r14 call cooley_tukey lea rbx, [r12 + r14] mov r14, rbx mov r15, r12 cooley_tukey_loop: cmp r15, rbx je cooley_tukey_end pxor xmm0, xmm0 # Calculate cexp(-2.0 * I * M_PI * i / N) movsd xmm1, two_pi mov rax, r14 sub rax, rbx cvtsi2sdq xmm2, rax cvtsi2sdq xmm3, r13 divsd xmm2, xmm3 mulsd xmm1, xmm2 call cexp movq xmm2, QWORD PTR [r14] # Calculating X[i] - cexp() * X[i + N / 2] movq xmm3, QWORD PTR [r14 + 8] call __muldc3 movq xmm2, QWORD PTR [r15] movq xmm3, QWORD PTR [r15 + 8] subsd xmm2, xmm0 subsd xmm3, xmm1 movq QWORD PTR [r14], xmm2 # Save value in X[i + N / 2] movq QWORD PTR [r14 + 8], xmm3 movq xmm0, QWORD PTR [r15] # Calculating X[i] -= X[i + N / 2] - X[i] movq xmm1, QWORD PTR [r15 + 8] subsd xmm2, xmm0 subsd xmm3, xmm1 subsd xmm0, xmm2 subsd xmm1, xmm3 movq QWORD PTR [r15], xmm0 movq QWORD PTR [r15 + 8], xmm1 add r14, 16 add r15, 16 jmp cooley_tukey_loop cooley_tukey_end: pop r15 pop r14 pop r13 pop r12 pop rbx cooley_tukey_return: ret # rdi - array ptr # rsi - array size bit_reverse: push rbx push r12 push r13 push r14 push r15 mov r12, rdi # Save parameters mov r13, rsi shr r13, 4 xor r14, r14 # Loop through all entries bit_reverse_entries: cmp r14, r13 je bit_reverse_return cvtsi2sdq xmm0, r13 # Calculating the number of bit in N call log2 cvttsd2si rcx, xmm0 mov rdi, 1 # Calculating (1 << log2(N)) - 1 sal edi, cl sub edi, 1 sub ecx, 1 mov rax, r14 mov r15, r14 bit_reverse_loop: sar r15 # Check if r15 is 0 je bit_reverse_reversed sal rax, 1 # Calculating (rax << 1) | (r15 & 1) mov rsi, r15 and rsi, 1 or rax, rsi sub ecx, 1 # Decrement bit count jmp bit_reverse_loop bit_reverse_reversed: sal eax, cl # Calculate (rax << rcx) & (1 << bit count) and rax, rdi cmp rax, r14 # Check if rax is greater then r14 jle bit_reverse_no_swap # If so then swap entries shl rax, 4 # Times index by 16 to get bytes to entry shl r14, 4 movaps xmm0, XMMWORD PTR [r12 + rax] movaps xmm1, XMMWORD PTR [r12 + r14] movaps XMMWORD PTR [r12 + rax], xmm1 movaps XMMWORD PTR [r12 + r14], xmm0 shr r14, 4 bit_reverse_no_swap: add r14, 1 jmp bit_reverse_entries bit_reverse_return: pop r15 pop r14 pop r13 pop r12 pop rbx ret # rdi - array ptr # rsi - array size iterative_cooley_tukey: push r12 push r13 push r14 push r15 push rbx sub rsp, 48 mov r12, rdi mov r13, rsi call bit_reverse # Bit reversing array sar r13, 4 # Calculate log2(N) cvtsi2sdq xmm0, r13 call log2 cvttsd2si rax, xmm0 mov QWORD PTR [rsp], rax # Save it to the stack mov r14, 1 iter_ct_loop_i: cmp r14, rax # Check if r14 is greater then log2(N) jg iter_ct_end_i movsd xmm0, two # Calculate stride = 2^(r14) cvtsi2sdq xmm1, r14 call pow cvttsd2si r10, xmm0 mov QWORD PTR [rsp + 40], r10# move stride to stack movsd xmm1, two_pi # Calculating cexp(-2pi * I / stride) divsd xmm1, xmm0 pxor xmm0, xmm0 call cexp movq QWORD PTR [rsp + 8], xmm0 # Save it to stack movq QWORD PTR [rsp + 16], xmm1 xor r15, r15 iter_ct_loop_j: cmp r15, r13 # Check if r15 is less then array size je iter_ct_end_j movsd xmm4, one # Save 1 + 0i to stack pxor xmm5, xmm5 movsd QWORD PTR [rsp + 24], xmm4 movsd QWORD PTR [rsp + 32], xmm5 xor rbx, rbx mov rax, QWORD PTR [rsp + 40]# Calculate stride / 2 sar rax, 1 iter_ct_loop_k: cmp rbx, rax # Check if rbx is less then stride / 2 je iter_ct_end_k mov r8, r15 # Saving pointers to X[k + j + stride / 2] and X[k + j] add r8, rbx sal r8, 4 mov r9, QWORD PTR [rsp + 40] sal r9, 3 add r9, r8 lea r9, [r12 + r9] lea r8, [r12 + r8] movsd xmm0, QWORD PTR [r9] # Calculate X[k + j] - v * X[k + j + stride / 2] movsd xmm1, QWORD PTR [r9 + 8] movsd xmm2, QWORD PTR [rsp + 24] movsd xmm3, QWORD PTR [rsp + 32] call __muldc3 movsd xmm2, QWORD PTR [r8] movsd xmm3, QWORD PTR [r8 + 8] subsd xmm2, xmm0 subsd xmm3, xmm1 movsd QWORD PTR [r9], xmm2 # Saving answer movsd QWORD PTR [r9 + 8], xmm3 movsd xmm0, QWORD PTR [r8] # Calculating X[k + j] - (X[k + j + stride / 2] - X[k + j]) movsd xmm1, QWORD PTR [r8 + 8] subsd xmm2, xmm0 subsd xmm3, xmm1 subsd xmm0, xmm2 subsd xmm1, xmm3 movsd QWORD PTR [r8], xmm0 # Saving answer movsd QWORD PTR [r8 + 8], xmm1 movsd xmm0, QWORD PTR [rsp + 24] # Calculating v * w movsd xmm1, QWORD PTR [rsp + 32] movsd xmm2, QWORD PTR [rsp + 8] movsd xmm3, QWORD PTR [rsp + 16] call __muldc3 movsd QWORD PTR [rsp + 24], xmm0 # Saving answer movsd QWORD PTR [rsp + 32], xmm1 add rbx, 1 mov rax, QWORD PTR [rsp + 40] sar rax, 1 jmp iter_ct_loop_k iter_ct_end_k: add r15, QWORD PTR [rsp + 40] jmp iter_ct_loop_j iter_ct_end_j: add r14, 1 mov rax, QWORD PTR [rsp] jmp iter_ct_loop_i iter_ct_end_i: add rsp, 48 pop rbx pop r15 pop r14 pop r13 pop r12 ret # rdi - array a ptr # rsi - array b ptr # rdx - array size approx: push r12 push r13 push r14 push r15 mov r12, rdi mov r13, rsi mov r14, rdx lea r15, [rdi + rdx] sub rsp, 8 approx_loop: cmp r12, r15 je approx_return movsd xmm0, QWORD PTR[r13] movsd xmm1, QWORD PTR[r13 + 8] call cabs movsd QWORD PTR [rsp], xmm0 movsd xmm0, QWORD PTR[r12] movsd xmm1, QWORD PTR[r12 + 8] call cabs movsd xmm1, QWORD PTR [rsp] subsd xmm0, xmm1 mov rdi, OFFSET fmt mov rax, 1 call printf add r12, 16 add r13, 16 jmp approx_loop approx_return: add rsp, 8 pop r15 pop r14 pop r13 pop r12 ret main: push r12 sub rsp, 2048 mov rdi, 0 call time mov edi, eax call srand lea r12, [rsp + 1024] loop: cmp r12, rsp je end_loop sub r12, 16 call rand cvtsi2sd xmm0, rax divsd xmm0, rand_max lea rax, [r12 + 1024] movsd QWORD PTR [r12], xmm0 movsd QWORD PTR [rax], xmm0 mov QWORD PTR [r12 + 8], 0 mov QWORD PTR [rax + 8], 0 jmp loop end_loop: mov rdi, rsp mov rsi, 1024 call iterative_cooley_tukey lea rdi, [rsp + 1024] mov rsi, 1024 call cooley_tukey mov rdi, rsp lea rsi, [rsp + 1024] mov rdx, 1024 call approx xor rax, rax add rsp, 2048 pop r12 ret
usenix-security-verdict/verdict
70,025
deps/libcrux/sys/libjade/jazz/chacha20_avx2.s
.att_syntax .text .p2align 5 .globl _jade_stream_chacha_chacha20_ietf_amd64_avx2 .globl jade_stream_chacha_chacha20_ietf_amd64_avx2 .globl _jade_stream_chacha_chacha20_ietf_amd64_avx2_xor .globl jade_stream_chacha_chacha20_ietf_amd64_avx2_xor _jade_stream_chacha_chacha20_ietf_amd64_avx2: jade_stream_chacha_chacha20_ietf_amd64_avx2: movq %rsp, %r10 leaq -1152(%rsp), %rsp andq $-32, %rsp cmpq $257, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$1 vmovdqu glob_data + 160(%rip), %ymm0 vmovdqu glob_data + 128(%rip), %ymm1 vmovdqu %ymm0, (%rsp) vmovdqu %ymm1, 32(%rsp) vmovdqu glob_data + 256(%rip), %ymm0 vmovdqu glob_data + 288(%rip), %ymm1 vmovdqu glob_data + 320(%rip), %ymm2 vmovdqu glob_data + 352(%rip), %ymm3 vpbroadcastd (%rcx), %ymm4 vpbroadcastd 4(%rcx), %ymm5 vpbroadcastd 8(%rcx), %ymm6 vpbroadcastd 12(%rcx), %ymm7 vpbroadcastd 16(%rcx), %ymm8 vpbroadcastd 20(%rcx), %ymm9 vpbroadcastd 24(%rcx), %ymm10 vpbroadcastd 28(%rcx), %ymm11 vmovdqu glob_data + 224(%rip), %ymm12 vpbroadcastd (%rdx), %ymm13 vpbroadcastd 4(%rdx), %ymm14 vpbroadcastd 8(%rdx), %ymm15 vmovdqu %ymm0, 640(%rsp) vmovdqu %ymm1, 672(%rsp) vmovdqu %ymm2, 704(%rsp) vmovdqu %ymm3, 736(%rsp) vmovdqu %ymm4, 768(%rsp) vmovdqu %ymm5, 800(%rsp) vmovdqu %ymm6, 832(%rsp) vmovdqu %ymm7, 864(%rsp) vmovdqu %ymm8, 896(%rsp) vmovdqu %ymm9, 928(%rsp) vmovdqu %ymm10, 960(%rsp) vmovdqu %ymm11, 992(%rsp) vmovdqu %ymm12, 1024(%rsp) vmovdqu %ymm13, 1056(%rsp) vmovdqu %ymm14, 1088(%rsp) vmovdqu %ymm15, 1120(%rsp) jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$32 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$33: vmovdqu 640(%rsp), %ymm0 vmovdqu 672(%rsp), %ymm1 vmovdqu 704(%rsp), %ymm2 vmovdqu 736(%rsp), %ymm3 vmovdqu 768(%rsp), %ymm4 vmovdqu 800(%rsp), %ymm5 vmovdqu 832(%rsp), %ymm6 vmovdqu 864(%rsp), %ymm7 vmovdqu 896(%rsp), %ymm8 vmovdqu 928(%rsp), %ymm9 vmovdqu 960(%rsp), %ymm10 vmovdqu 992(%rsp), %ymm11 vmovdqu 1024(%rsp), %ymm12 vmovdqu 1056(%rsp), %ymm13 vmovdqu 1088(%rsp), %ymm14 vmovdqu 1120(%rsp), %ymm15 vmovdqu %ymm15, 64(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$34: vpaddd %ymm4, %ymm0, %ymm0 vpxor %ymm0, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm4, %ymm0, %ymm0 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm0, %ymm12, %ymm12 vpxor %ymm10, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm6, %ymm6 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vmovdqu 64(%rsp), %ymm15 vmovdqu %ymm14, 96(%rsp) vpaddd %ymm5, %ymm1, %ymm1 vpxor %ymm1, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm5, %ymm1, %ymm1 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm1, %ymm13, %ymm13 vpxor %ymm11, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm11, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm6, %ymm1, %ymm1 vpxor %ymm1, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm6, %ymm1, %ymm1 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm1, %ymm12, %ymm12 vpxor %ymm10, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm5, %ymm5 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vmovdqu 96(%rsp), %ymm15 vmovdqu %ymm14, 64(%rsp) vpaddd %ymm7, %ymm2, %ymm2 vpxor %ymm2, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm7, %ymm2, %ymm2 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm2, %ymm13, %ymm13 vpxor %ymm9, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm9, %ymm4, %ymm4 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$34 vmovdqu 64(%rsp), %ymm15 vpaddd 640(%rsp), %ymm0, %ymm0 vpaddd 672(%rsp), %ymm1, %ymm1 vpaddd 704(%rsp), %ymm2, %ymm2 vpaddd 736(%rsp), %ymm3, %ymm3 vpaddd 768(%rsp), %ymm4, %ymm4 vpaddd 800(%rsp), %ymm5, %ymm5 vpaddd 832(%rsp), %ymm6, %ymm6 vpaddd 864(%rsp), %ymm7, %ymm7 vpaddd 896(%rsp), %ymm8, %ymm8 vpaddd 928(%rsp), %ymm9, %ymm9 vpaddd 960(%rsp), %ymm10, %ymm10 vpaddd 992(%rsp), %ymm11, %ymm11 vpaddd 1024(%rsp), %ymm12, %ymm12 vpaddd 1056(%rsp), %ymm13, %ymm13 vpaddd 1088(%rsp), %ymm14, %ymm14 vpaddd 1120(%rsp), %ymm15, %ymm15 vmovdqu %ymm8, 128(%rsp) vmovdqu %ymm9, 160(%rsp) vmovdqu %ymm10, 192(%rsp) vmovdqu %ymm11, 224(%rsp) vmovdqu %ymm12, 256(%rsp) vmovdqu %ymm13, 288(%rsp) vmovdqu %ymm14, 320(%rsp) vmovdqu %ymm15, 352(%rsp) vpunpckldq %ymm1, %ymm0, %ymm8 vpunpckhdq %ymm1, %ymm0, %ymm0 vpunpckldq %ymm3, %ymm2, %ymm1 vpunpckhdq %ymm3, %ymm2, %ymm2 vpunpckldq %ymm5, %ymm4, %ymm3 vpunpckhdq %ymm5, %ymm4, %ymm4 vpunpckldq %ymm7, %ymm6, %ymm5 vpunpckhdq %ymm7, %ymm6, %ymm6 vpunpcklqdq %ymm1, %ymm8, %ymm7 vpunpcklqdq %ymm5, %ymm3, %ymm9 vpunpckhqdq %ymm1, %ymm8, %ymm1 vpunpckhqdq %ymm5, %ymm3, %ymm3 vpunpcklqdq %ymm2, %ymm0, %ymm5 vpunpcklqdq %ymm6, %ymm4, %ymm8 vpunpckhqdq %ymm2, %ymm0, %ymm0 vpunpckhqdq %ymm6, %ymm4, %ymm2 vperm2i128 $32, %ymm9, %ymm7, %ymm4 vperm2i128 $49, %ymm9, %ymm7, %ymm6 vperm2i128 $32, %ymm3, %ymm1, %ymm7 vperm2i128 $49, %ymm3, %ymm1, %ymm1 vperm2i128 $32, %ymm8, %ymm5, %ymm3 vperm2i128 $49, %ymm8, %ymm5, %ymm5 vperm2i128 $32, %ymm2, %ymm0, %ymm8 vperm2i128 $49, %ymm2, %ymm0, %ymm0 vmovdqu %ymm4, (%rdi) vmovdqu %ymm7, 64(%rdi) vmovdqu %ymm3, 128(%rdi) vmovdqu %ymm8, 192(%rdi) vmovdqu %ymm6, 256(%rdi) vmovdqu %ymm1, 320(%rdi) vmovdqu %ymm5, 384(%rdi) vmovdqu %ymm0, 448(%rdi) vmovdqu 128(%rsp), %ymm0 vmovdqu 192(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 320(%rsp), %ymm3 vpunpckldq 160(%rsp), %ymm0, %ymm4 vpunpckhdq 160(%rsp), %ymm0, %ymm0 vpunpckldq 224(%rsp), %ymm1, %ymm5 vpunpckhdq 224(%rsp), %ymm1, %ymm1 vpunpckldq 288(%rsp), %ymm2, %ymm6 vpunpckhdq 288(%rsp), %ymm2, %ymm2 vpunpckldq 352(%rsp), %ymm3, %ymm7 vpunpckhdq 352(%rsp), %ymm3, %ymm3 vpunpcklqdq %ymm5, %ymm4, %ymm8 vpunpcklqdq %ymm7, %ymm6, %ymm9 vpunpckhqdq %ymm5, %ymm4, %ymm4 vpunpckhqdq %ymm7, %ymm6, %ymm5 vpunpcklqdq %ymm1, %ymm0, %ymm6 vpunpcklqdq %ymm3, %ymm2, %ymm7 vpunpckhqdq %ymm1, %ymm0, %ymm0 vpunpckhqdq %ymm3, %ymm2, %ymm1 vperm2i128 $32, %ymm9, %ymm8, %ymm2 vperm2i128 $49, %ymm9, %ymm8, %ymm3 vperm2i128 $32, %ymm5, %ymm4, %ymm8 vperm2i128 $49, %ymm5, %ymm4, %ymm4 vperm2i128 $32, %ymm7, %ymm6, %ymm5 vperm2i128 $49, %ymm7, %ymm6, %ymm6 vperm2i128 $32, %ymm1, %ymm0, %ymm7 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vmovdqu %ymm2, 32(%rdi) vmovdqu %ymm8, 96(%rdi) vmovdqu %ymm5, 160(%rdi) vmovdqu %ymm7, 224(%rdi) vmovdqu %ymm3, 288(%rdi) vmovdqu %ymm4, 352(%rdi) vmovdqu %ymm6, 416(%rdi) vmovdqu %ymm0, 480(%rdi) addq $512, %rdi addq $-512, %rsi vmovdqu glob_data + 0(%rip), %ymm0 vpaddd 1024(%rsp), %ymm0, %ymm0 vmovdqu %ymm0, 1024(%rsp) Ljade_stream_chacha_chacha20_ietf_amd64_avx2$32: cmpq $512, %rsi jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$33 cmpq $0, %rsi jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2 vmovdqu 640(%rsp), %ymm0 vmovdqu 672(%rsp), %ymm1 vmovdqu 704(%rsp), %ymm2 vmovdqu 736(%rsp), %ymm3 vmovdqu 768(%rsp), %ymm4 vmovdqu 800(%rsp), %ymm5 vmovdqu 832(%rsp), %ymm6 vmovdqu 864(%rsp), %ymm7 vmovdqu 896(%rsp), %ymm8 vmovdqu 928(%rsp), %ymm9 vmovdqu 960(%rsp), %ymm10 vmovdqu 992(%rsp), %ymm11 vmovdqu 1024(%rsp), %ymm12 vmovdqu 1056(%rsp), %ymm13 vmovdqu 1088(%rsp), %ymm14 vmovdqu 1120(%rsp), %ymm15 vmovdqu %ymm15, 64(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$31: vpaddd %ymm4, %ymm0, %ymm0 vpxor %ymm0, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm4, %ymm0, %ymm0 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm0, %ymm12, %ymm12 vpxor %ymm10, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm6, %ymm6 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vmovdqu 64(%rsp), %ymm15 vmovdqu %ymm14, 96(%rsp) vpaddd %ymm5, %ymm1, %ymm1 vpxor %ymm1, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm5, %ymm1, %ymm1 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm1, %ymm13, %ymm13 vpxor %ymm11, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm11, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm6, %ymm1, %ymm1 vpxor %ymm1, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm6, %ymm1, %ymm1 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm1, %ymm12, %ymm12 vpxor %ymm10, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm5, %ymm5 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vmovdqu 96(%rsp), %ymm15 vmovdqu %ymm14, 64(%rsp) vpaddd %ymm7, %ymm2, %ymm2 vpxor %ymm2, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm7, %ymm2, %ymm2 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm2, %ymm13, %ymm13 vpxor %ymm9, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm9, %ymm4, %ymm4 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$31 vmovdqu 64(%rsp), %ymm15 vpaddd 640(%rsp), %ymm0, %ymm0 vpaddd 672(%rsp), %ymm1, %ymm1 vpaddd 704(%rsp), %ymm2, %ymm2 vpaddd 736(%rsp), %ymm3, %ymm3 vpaddd 768(%rsp), %ymm4, %ymm4 vpaddd 800(%rsp), %ymm5, %ymm5 vpaddd 832(%rsp), %ymm6, %ymm6 vpaddd 864(%rsp), %ymm7, %ymm7 vpaddd 896(%rsp), %ymm8, %ymm8 vpaddd 928(%rsp), %ymm9, %ymm9 vpaddd 960(%rsp), %ymm10, %ymm10 vpaddd 992(%rsp), %ymm11, %ymm11 vpaddd 1024(%rsp), %ymm12, %ymm12 vpaddd 1056(%rsp), %ymm13, %ymm13 vpaddd 1088(%rsp), %ymm14, %ymm14 vpaddd 1120(%rsp), %ymm15, %ymm15 vmovdqu %ymm8, 128(%rsp) vmovdqu %ymm9, 160(%rsp) vmovdqu %ymm10, 192(%rsp) vmovdqu %ymm11, 224(%rsp) vmovdqu %ymm12, 256(%rsp) vmovdqu %ymm13, 288(%rsp) vmovdqu %ymm14, 320(%rsp) vmovdqu %ymm15, 352(%rsp) vpunpckldq %ymm1, %ymm0, %ymm8 vpunpckhdq %ymm1, %ymm0, %ymm0 vpunpckldq %ymm3, %ymm2, %ymm1 vpunpckhdq %ymm3, %ymm2, %ymm2 vpunpckldq %ymm5, %ymm4, %ymm3 vpunpckhdq %ymm5, %ymm4, %ymm4 vpunpckldq %ymm7, %ymm6, %ymm5 vpunpckhdq %ymm7, %ymm6, %ymm6 vpunpcklqdq %ymm1, %ymm8, %ymm7 vpunpcklqdq %ymm5, %ymm3, %ymm9 vpunpckhqdq %ymm1, %ymm8, %ymm1 vpunpckhqdq %ymm5, %ymm3, %ymm3 vpunpcklqdq %ymm2, %ymm0, %ymm5 vpunpcklqdq %ymm6, %ymm4, %ymm8 vpunpckhqdq %ymm2, %ymm0, %ymm0 vpunpckhqdq %ymm6, %ymm4, %ymm2 vperm2i128 $32, %ymm9, %ymm7, %ymm4 vperm2i128 $49, %ymm9, %ymm7, %ymm6 vperm2i128 $32, %ymm3, %ymm1, %ymm7 vperm2i128 $49, %ymm3, %ymm1, %ymm1 vperm2i128 $32, %ymm8, %ymm5, %ymm3 vperm2i128 $49, %ymm8, %ymm5, %ymm5 vperm2i128 $32, %ymm2, %ymm0, %ymm8 vperm2i128 $49, %ymm2, %ymm0, %ymm0 vmovdqu %ymm4, 384(%rsp) vmovdqu %ymm7, 416(%rsp) vmovdqu %ymm3, 448(%rsp) vmovdqu %ymm8, 480(%rsp) vmovdqu %ymm6, 512(%rsp) vmovdqu %ymm1, 544(%rsp) vmovdqu %ymm5, 576(%rsp) vmovdqu %ymm0, 608(%rsp) vmovdqu 128(%rsp), %ymm0 vmovdqu 192(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 320(%rsp), %ymm3 vpunpckldq 160(%rsp), %ymm0, %ymm4 vpunpckhdq 160(%rsp), %ymm0, %ymm0 vpunpckldq 224(%rsp), %ymm1, %ymm5 vpunpckhdq 224(%rsp), %ymm1, %ymm1 vpunpckldq 288(%rsp), %ymm2, %ymm6 vpunpckhdq 288(%rsp), %ymm2, %ymm2 vpunpckldq 352(%rsp), %ymm3, %ymm7 vpunpckhdq 352(%rsp), %ymm3, %ymm3 vpunpcklqdq %ymm5, %ymm4, %ymm8 vpunpcklqdq %ymm7, %ymm6, %ymm9 vpunpckhqdq %ymm5, %ymm4, %ymm4 vpunpckhqdq %ymm7, %ymm6, %ymm5 vpunpcklqdq %ymm1, %ymm0, %ymm6 vpunpcklqdq %ymm3, %ymm2, %ymm7 vpunpckhqdq %ymm1, %ymm0, %ymm0 vpunpckhqdq %ymm3, %ymm2, %ymm1 vperm2i128 $32, %ymm9, %ymm8, %ymm2 vperm2i128 $49, %ymm9, %ymm8, %ymm3 vperm2i128 $32, %ymm5, %ymm4, %ymm8 vperm2i128 $49, %ymm5, %ymm4, %ymm4 vperm2i128 $32, %ymm7, %ymm6, %ymm5 vperm2i128 $49, %ymm7, %ymm6, %ymm6 vperm2i128 $32, %ymm1, %ymm0, %ymm7 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vmovdqu 384(%rsp), %ymm12 vmovdqu %ymm2, %ymm11 vmovdqu 416(%rsp), %ymm10 vmovdqu %ymm8, %ymm9 vmovdqu 448(%rsp), %ymm8 vmovdqu 480(%rsp), %ymm2 vmovdqu %ymm7, %ymm1 cmpq $256, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$30 vmovdqu %ymm12, (%rdi) vmovdqu %ymm11, 32(%rdi) vmovdqu %ymm10, 64(%rdi) vmovdqu %ymm9, 96(%rdi) vmovdqu %ymm8, 128(%rdi) vmovdqu %ymm5, 160(%rdi) vmovdqu %ymm2, 192(%rdi) vmovdqu %ymm1, 224(%rdi) addq $256, %rdi addq $-256, %rsi vmovdqu 512(%rsp), %ymm12 vmovdqu %ymm3, %ymm11 vmovdqu 544(%rsp), %ymm10 vmovdqu %ymm4, %ymm9 vmovdqu 576(%rsp), %ymm8 vmovdqu %ymm6, %ymm5 vmovdqu 608(%rsp), %ymm2 vmovdqu %ymm0, %ymm1 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$30: cmpq $128, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$29 vmovdqu %ymm12, (%rdi) vmovdqu %ymm11, 32(%rdi) vmovdqu %ymm10, 64(%rdi) vmovdqu %ymm9, 96(%rdi) addq $128, %rdi addq $-128, %rsi vmovdqu %ymm8, %ymm12 vmovdqu %ymm5, %ymm11 vmovdqu %ymm2, %ymm10 vmovdqu %ymm1, %ymm9 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$29: cmpq $64, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$28 vmovdqu %ymm12, (%rdi) vmovdqu %ymm11, 32(%rdi) addq $64, %rdi addq $-64, %rsi vmovdqu %ymm10, %ymm12 vmovdqu %ymm9, %ymm11 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$28: cmpq $32, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$27 vmovdqu %ymm12, (%rdi) addq $32, %rdi addq $-32, %rsi vmovdqu %ymm11, %ymm12 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$27: vmovdqu %xmm12, %xmm0 cmpq $16, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$26 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $-16, %rsi vextracti128 $1, %ymm12, %xmm0 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$26: vpextrq $0, %xmm0, %rax cmpq $8, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$23 movq %rax, (%rdi) addq $8, %rdi addq $-8, %rsi vpextrq $1, %xmm0, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$25: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$23 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$24: movb %al, %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi addq $-1, %rsi Ljade_stream_chacha_chacha20_ietf_amd64_avx2$23: cmpq $0, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$24 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$22: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$1: vmovdqu glob_data + 160(%rip), %ymm0 vmovdqu glob_data + 128(%rip), %ymm1 vmovdqu glob_data + 480(%rip), %ymm2 vbroadcasti128 (%rcx), %ymm3 vbroadcasti128 16(%rcx), %ymm4 vpxor %xmm5, %xmm5, %xmm5 vpinsrd $1, (%rdx), %xmm5, %xmm5 vpinsrq $1, 4(%rdx), %xmm5, %xmm5 vpxor %ymm6, %ymm6, %ymm6 vinserti128 $0, %xmm5, %ymm6, %ymm6 vinserti128 $1, %xmm5, %ymm6, %ymm5 vpaddd glob_data + 96(%rip), %ymm5, %ymm5 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$19 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$20: vmovdqu %ymm2, %ymm6 vmovdqu %ymm3, %ymm7 vmovdqu %ymm4, %ymm8 vmovdqu %ymm5, %ymm9 vmovdqu %ymm2, %ymm10 vmovdqu %ymm3, %ymm11 vmovdqu %ymm4, %ymm12 vmovdqu %ymm5, %ymm13 vpaddd glob_data + 64(%rip), %ymm13, %ymm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$21: vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $57, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $-109, %ymm9, %ymm9 vpshufd $57, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $-109, %ymm13, %ymm13 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $-109, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $57, %ymm9, %ymm9 vpshufd $-109, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $57, %ymm13, %ymm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$21 vpaddd %ymm2, %ymm6, %ymm6 vpaddd %ymm3, %ymm7, %ymm7 vpaddd %ymm4, %ymm8, %ymm8 vpaddd %ymm5, %ymm9, %ymm9 vpaddd %ymm2, %ymm10, %ymm10 vpaddd %ymm3, %ymm11, %ymm11 vpaddd %ymm4, %ymm12, %ymm12 vpaddd %ymm5, %ymm13, %ymm13 vpaddd glob_data + 64(%rip), %ymm13, %ymm13 vperm2i128 $32, %ymm7, %ymm6, %ymm14 vperm2i128 $32, %ymm9, %ymm8, %ymm15 vperm2i128 $49, %ymm7, %ymm6, %ymm6 vperm2i128 $49, %ymm9, %ymm8, %ymm7 vperm2i128 $32, %ymm11, %ymm10, %ymm8 vperm2i128 $32, %ymm13, %ymm12, %ymm9 vperm2i128 $49, %ymm11, %ymm10, %ymm10 vperm2i128 $49, %ymm13, %ymm12, %ymm11 vmovdqu %ymm14, (%rdi) vmovdqu %ymm15, 32(%rdi) vmovdqu %ymm6, 64(%rdi) vmovdqu %ymm7, 96(%rdi) vmovdqu %ymm8, 128(%rdi) vmovdqu %ymm9, 160(%rdi) vmovdqu %ymm10, 192(%rdi) vmovdqu %ymm11, 224(%rdi) addq $256, %rdi addq $-256, %rsi vpaddd glob_data + 32(%rip), %ymm5, %ymm5 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$19: cmpq $256, %rsi jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$20 cmpq $128, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$3 vmovdqu %ymm2, %ymm6 vmovdqu %ymm3, %ymm7 vmovdqu %ymm4, %ymm8 vmovdqu %ymm5, %ymm9 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$18: vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm0, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm10 vpsrld $20, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm1, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm10 vpsrld $25, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpshufd $57, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $-109, %ymm9, %ymm9 vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm0, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm10 vpsrld $20, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm1, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm10 vpsrld $25, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpshufd $-109, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $57, %ymm9, %ymm9 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$18 vpaddd %ymm2, %ymm6, %ymm0 vpaddd %ymm3, %ymm7, %ymm1 vpaddd %ymm4, %ymm8, %ymm2 vpaddd %ymm5, %ymm9, %ymm3 vperm2i128 $32, %ymm1, %ymm0, %ymm5 vperm2i128 $32, %ymm3, %ymm2, %ymm4 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vperm2i128 $49, %ymm3, %ymm2, %ymm1 cmpq $64, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$17 vmovdqu %ymm5, (%rdi) vmovdqu %ymm4, 32(%rdi) addq $64, %rdi addq $-64, %rsi vmovdqu %ymm0, %ymm5 vmovdqu %ymm1, %ymm4 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$17: cmpq $32, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$16 vmovdqu %ymm5, (%rdi) addq $32, %rdi addq $-32, %rsi vmovdqu %ymm4, %ymm5 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$16: vmovdqu %xmm5, %xmm0 cmpq $16, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$15 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $-16, %rsi vextracti128 $1, %ymm5, %xmm0 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$15: vpextrq $0, %xmm0, %rax cmpq $8, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$12 movq %rax, (%rdi) addq $8, %rdi addq $-8, %rsi vpextrq $1, %xmm0, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$14: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$12 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$13: movb %al, %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi addq $-1, %rsi Ljade_stream_chacha_chacha20_ietf_amd64_avx2$12: cmpq $0, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$13 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$3: vmovdqu %ymm2, %ymm6 vmovdqu %ymm3, %ymm7 vmovdqu %ymm4, %ymm8 vmovdqu %ymm5, %ymm9 vmovdqu %ymm2, %ymm10 vmovdqu %ymm3, %ymm11 vmovdqu %ymm4, %ymm12 vmovdqu %ymm5, %ymm13 vpaddd glob_data + 64(%rip), %ymm13, %ymm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$11: vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $57, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $-109, %ymm9, %ymm9 vpshufd $57, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $-109, %ymm13, %ymm13 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $-109, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $57, %ymm9, %ymm9 vpshufd $-109, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $57, %ymm13, %ymm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$11 vpaddd %ymm2, %ymm6, %ymm0 vpaddd %ymm3, %ymm7, %ymm1 vpaddd %ymm4, %ymm8, %ymm6 vpaddd %ymm5, %ymm9, %ymm7 vpaddd %ymm2, %ymm10, %ymm2 vpaddd %ymm3, %ymm11, %ymm3 vpaddd %ymm4, %ymm12, %ymm4 vpaddd %ymm5, %ymm13, %ymm5 vpaddd glob_data + 64(%rip), %ymm5, %ymm5 vperm2i128 $32, %ymm1, %ymm0, %ymm8 vperm2i128 $32, %ymm7, %ymm6, %ymm9 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vperm2i128 $49, %ymm7, %ymm6, %ymm1 vperm2i128 $32, %ymm3, %ymm2, %ymm7 vperm2i128 $32, %ymm5, %ymm4, %ymm6 vperm2i128 $49, %ymm3, %ymm2, %ymm2 vperm2i128 $49, %ymm5, %ymm4, %ymm3 vmovdqu %ymm8, (%rdi) vmovdqu %ymm9, 32(%rdi) vmovdqu %ymm0, 64(%rdi) vmovdqu %ymm1, 96(%rdi) addq $128, %rdi addq $-128, %rsi cmpq $64, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$10 vmovdqu %ymm7, (%rdi) vmovdqu %ymm6, 32(%rdi) addq $64, %rdi addq $-64, %rsi vmovdqu %ymm2, %ymm7 vmovdqu %ymm3, %ymm6 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$10: cmpq $32, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$9 vmovdqu %ymm7, (%rdi) addq $32, %rdi addq $-32, %rsi vmovdqu %ymm6, %ymm7 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$9: vmovdqu %xmm7, %xmm0 cmpq $16, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$8 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $-16, %rsi vextracti128 $1, %ymm7, %xmm0 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$8: vpextrq $0, %xmm0, %rax cmpq $8, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$5 movq %rax, (%rdi) addq $8, %rdi addq $-8, %rsi vpextrq $1, %xmm0, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$7: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$5 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$6: movb %al, %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi addq $-1, %rsi Ljade_stream_chacha_chacha20_ietf_amd64_avx2$5: cmpq $0, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$6 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$4: Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2: xorq %rax, %rax movq %r10, %rsp ret _jade_stream_chacha_chacha20_ietf_amd64_avx2_xor: jade_stream_chacha_chacha20_ietf_amd64_avx2_xor: movq %rsp, %r10 leaq -1152(%rsp), %rsp andq $-32, %rsp cmpq $257, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$1 vmovdqu glob_data + 160(%rip), %ymm0 vmovdqu glob_data + 128(%rip), %ymm1 vmovdqu %ymm0, (%rsp) vmovdqu %ymm1, 32(%rsp) vmovdqu glob_data + 256(%rip), %ymm0 vmovdqu glob_data + 288(%rip), %ymm1 vmovdqu glob_data + 320(%rip), %ymm2 vmovdqu glob_data + 352(%rip), %ymm3 vpbroadcastd (%r8), %ymm4 vpbroadcastd 4(%r8), %ymm5 vpbroadcastd 8(%r8), %ymm6 vpbroadcastd 12(%r8), %ymm7 vpbroadcastd 16(%r8), %ymm8 vpbroadcastd 20(%r8), %ymm9 vpbroadcastd 24(%r8), %ymm10 vpbroadcastd 28(%r8), %ymm11 vmovdqu glob_data + 224(%rip), %ymm12 vpbroadcastd (%rcx), %ymm13 vpbroadcastd 4(%rcx), %ymm14 vpbroadcastd 8(%rcx), %ymm15 vmovdqu %ymm0, 640(%rsp) vmovdqu %ymm1, 672(%rsp) vmovdqu %ymm2, 704(%rsp) vmovdqu %ymm3, 736(%rsp) vmovdqu %ymm4, 768(%rsp) vmovdqu %ymm5, 800(%rsp) vmovdqu %ymm6, 832(%rsp) vmovdqu %ymm7, 864(%rsp) vmovdqu %ymm8, 896(%rsp) vmovdqu %ymm9, 928(%rsp) vmovdqu %ymm10, 960(%rsp) vmovdqu %ymm11, 992(%rsp) vmovdqu %ymm12, 1024(%rsp) vmovdqu %ymm13, 1056(%rsp) vmovdqu %ymm14, 1088(%rsp) vmovdqu %ymm15, 1120(%rsp) jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$32 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$33: vmovdqu 640(%rsp), %ymm0 vmovdqu 672(%rsp), %ymm1 vmovdqu 704(%rsp), %ymm2 vmovdqu 736(%rsp), %ymm3 vmovdqu 768(%rsp), %ymm4 vmovdqu 800(%rsp), %ymm5 vmovdqu 832(%rsp), %ymm6 vmovdqu 864(%rsp), %ymm7 vmovdqu 896(%rsp), %ymm8 vmovdqu 928(%rsp), %ymm9 vmovdqu 960(%rsp), %ymm10 vmovdqu 992(%rsp), %ymm11 vmovdqu 1024(%rsp), %ymm12 vmovdqu 1056(%rsp), %ymm13 vmovdqu 1088(%rsp), %ymm14 vmovdqu 1120(%rsp), %ymm15 vmovdqu %ymm15, 64(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$34: vpaddd %ymm4, %ymm0, %ymm0 vpxor %ymm0, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm4, %ymm0, %ymm0 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm0, %ymm12, %ymm12 vpxor %ymm10, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm6, %ymm6 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vmovdqu 64(%rsp), %ymm15 vmovdqu %ymm14, 96(%rsp) vpaddd %ymm5, %ymm1, %ymm1 vpxor %ymm1, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm5, %ymm1, %ymm1 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm1, %ymm13, %ymm13 vpxor %ymm11, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm11, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm6, %ymm1, %ymm1 vpxor %ymm1, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm6, %ymm1, %ymm1 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm1, %ymm12, %ymm12 vpxor %ymm10, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm5, %ymm5 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vmovdqu 96(%rsp), %ymm15 vmovdqu %ymm14, 64(%rsp) vpaddd %ymm7, %ymm2, %ymm2 vpxor %ymm2, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm7, %ymm2, %ymm2 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm2, %ymm13, %ymm13 vpxor %ymm9, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm9, %ymm4, %ymm4 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$34 vmovdqu 64(%rsp), %ymm15 vpaddd 640(%rsp), %ymm0, %ymm0 vpaddd 672(%rsp), %ymm1, %ymm1 vpaddd 704(%rsp), %ymm2, %ymm2 vpaddd 736(%rsp), %ymm3, %ymm3 vpaddd 768(%rsp), %ymm4, %ymm4 vpaddd 800(%rsp), %ymm5, %ymm5 vpaddd 832(%rsp), %ymm6, %ymm6 vpaddd 864(%rsp), %ymm7, %ymm7 vpaddd 896(%rsp), %ymm8, %ymm8 vpaddd 928(%rsp), %ymm9, %ymm9 vpaddd 960(%rsp), %ymm10, %ymm10 vpaddd 992(%rsp), %ymm11, %ymm11 vpaddd 1024(%rsp), %ymm12, %ymm12 vpaddd 1056(%rsp), %ymm13, %ymm13 vpaddd 1088(%rsp), %ymm14, %ymm14 vpaddd 1120(%rsp), %ymm15, %ymm15 vmovdqu %ymm8, 128(%rsp) vmovdqu %ymm9, 160(%rsp) vmovdqu %ymm10, 192(%rsp) vmovdqu %ymm11, 224(%rsp) vmovdqu %ymm12, 256(%rsp) vmovdqu %ymm13, 288(%rsp) vmovdqu %ymm14, 320(%rsp) vmovdqu %ymm15, 352(%rsp) vpunpckldq %ymm1, %ymm0, %ymm8 vpunpckhdq %ymm1, %ymm0, %ymm0 vpunpckldq %ymm3, %ymm2, %ymm1 vpunpckhdq %ymm3, %ymm2, %ymm2 vpunpckldq %ymm5, %ymm4, %ymm3 vpunpckhdq %ymm5, %ymm4, %ymm4 vpunpckldq %ymm7, %ymm6, %ymm5 vpunpckhdq %ymm7, %ymm6, %ymm6 vpunpcklqdq %ymm1, %ymm8, %ymm7 vpunpcklqdq %ymm5, %ymm3, %ymm9 vpunpckhqdq %ymm1, %ymm8, %ymm1 vpunpckhqdq %ymm5, %ymm3, %ymm3 vpunpcklqdq %ymm2, %ymm0, %ymm5 vpunpcklqdq %ymm6, %ymm4, %ymm8 vpunpckhqdq %ymm2, %ymm0, %ymm0 vpunpckhqdq %ymm6, %ymm4, %ymm2 vperm2i128 $32, %ymm9, %ymm7, %ymm4 vperm2i128 $49, %ymm9, %ymm7, %ymm6 vperm2i128 $32, %ymm3, %ymm1, %ymm7 vperm2i128 $49, %ymm3, %ymm1, %ymm1 vperm2i128 $32, %ymm8, %ymm5, %ymm3 vperm2i128 $49, %ymm8, %ymm5, %ymm5 vperm2i128 $32, %ymm2, %ymm0, %ymm8 vperm2i128 $49, %ymm2, %ymm0, %ymm0 vpxor (%rsi), %ymm4, %ymm2 vpxor 64(%rsi), %ymm7, %ymm4 vpxor 128(%rsi), %ymm3, %ymm3 vpxor 192(%rsi), %ymm8, %ymm7 vpxor 256(%rsi), %ymm6, %ymm6 vpxor 320(%rsi), %ymm1, %ymm1 vpxor 384(%rsi), %ymm5, %ymm5 vpxor 448(%rsi), %ymm0, %ymm0 vmovdqu %ymm2, (%rdi) vmovdqu %ymm4, 64(%rdi) vmovdqu %ymm3, 128(%rdi) vmovdqu %ymm7, 192(%rdi) vmovdqu %ymm6, 256(%rdi) vmovdqu %ymm1, 320(%rdi) vmovdqu %ymm5, 384(%rdi) vmovdqu %ymm0, 448(%rdi) vmovdqu 128(%rsp), %ymm0 vmovdqu 192(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 320(%rsp), %ymm3 vpunpckldq 160(%rsp), %ymm0, %ymm4 vpunpckhdq 160(%rsp), %ymm0, %ymm0 vpunpckldq 224(%rsp), %ymm1, %ymm5 vpunpckhdq 224(%rsp), %ymm1, %ymm1 vpunpckldq 288(%rsp), %ymm2, %ymm6 vpunpckhdq 288(%rsp), %ymm2, %ymm2 vpunpckldq 352(%rsp), %ymm3, %ymm7 vpunpckhdq 352(%rsp), %ymm3, %ymm3 vpunpcklqdq %ymm5, %ymm4, %ymm8 vpunpcklqdq %ymm7, %ymm6, %ymm9 vpunpckhqdq %ymm5, %ymm4, %ymm4 vpunpckhqdq %ymm7, %ymm6, %ymm5 vpunpcklqdq %ymm1, %ymm0, %ymm6 vpunpcklqdq %ymm3, %ymm2, %ymm7 vpunpckhqdq %ymm1, %ymm0, %ymm0 vpunpckhqdq %ymm3, %ymm2, %ymm1 vperm2i128 $32, %ymm9, %ymm8, %ymm2 vperm2i128 $49, %ymm9, %ymm8, %ymm3 vperm2i128 $32, %ymm5, %ymm4, %ymm8 vperm2i128 $49, %ymm5, %ymm4, %ymm4 vperm2i128 $32, %ymm7, %ymm6, %ymm5 vperm2i128 $49, %ymm7, %ymm6, %ymm6 vperm2i128 $32, %ymm1, %ymm0, %ymm7 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vpxor 32(%rsi), %ymm2, %ymm1 vpxor 96(%rsi), %ymm8, %ymm2 vpxor 160(%rsi), %ymm5, %ymm5 vpxor 224(%rsi), %ymm7, %ymm7 vpxor 288(%rsi), %ymm3, %ymm3 vpxor 352(%rsi), %ymm4, %ymm4 vpxor 416(%rsi), %ymm6, %ymm6 vpxor 480(%rsi), %ymm0, %ymm0 vmovdqu %ymm1, 32(%rdi) vmovdqu %ymm2, 96(%rdi) vmovdqu %ymm5, 160(%rdi) vmovdqu %ymm7, 224(%rdi) vmovdqu %ymm3, 288(%rdi) vmovdqu %ymm4, 352(%rdi) vmovdqu %ymm6, 416(%rdi) vmovdqu %ymm0, 480(%rdi) addq $512, %rdi addq $512, %rsi addq $-512, %rdx vmovdqu glob_data + 0(%rip), %ymm0 vpaddd 1024(%rsp), %ymm0, %ymm0 vmovdqu %ymm0, 1024(%rsp) Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$32: cmpq $512, %rdx jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$33 cmpq $0, %rdx jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2 vmovdqu 640(%rsp), %ymm0 vmovdqu 672(%rsp), %ymm1 vmovdqu 704(%rsp), %ymm2 vmovdqu 736(%rsp), %ymm3 vmovdqu 768(%rsp), %ymm4 vmovdqu 800(%rsp), %ymm5 vmovdqu 832(%rsp), %ymm6 vmovdqu 864(%rsp), %ymm7 vmovdqu 896(%rsp), %ymm8 vmovdqu 928(%rsp), %ymm9 vmovdqu 960(%rsp), %ymm10 vmovdqu 992(%rsp), %ymm11 vmovdqu 1024(%rsp), %ymm12 vmovdqu 1056(%rsp), %ymm13 vmovdqu 1088(%rsp), %ymm14 vmovdqu 1120(%rsp), %ymm15 vmovdqu %ymm15, 64(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$31: vpaddd %ymm4, %ymm0, %ymm0 vpxor %ymm0, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm4, %ymm0, %ymm0 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm0, %ymm12, %ymm12 vpxor %ymm10, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm6, %ymm6 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vmovdqu 64(%rsp), %ymm15 vmovdqu %ymm14, 96(%rsp) vpaddd %ymm5, %ymm1, %ymm1 vpxor %ymm1, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm5, %ymm1, %ymm1 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm1, %ymm13, %ymm13 vpxor %ymm11, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm11, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm6, %ymm1, %ymm1 vpxor %ymm1, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm6, %ymm1, %ymm1 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm1, %ymm12, %ymm12 vpxor %ymm10, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm5, %ymm5 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vmovdqu 96(%rsp), %ymm15 vmovdqu %ymm14, 64(%rsp) vpaddd %ymm7, %ymm2, %ymm2 vpxor %ymm2, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm7, %ymm2, %ymm2 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm2, %ymm13, %ymm13 vpxor %ymm9, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm9, %ymm4, %ymm4 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$31 vmovdqu 64(%rsp), %ymm15 vpaddd 640(%rsp), %ymm0, %ymm0 vpaddd 672(%rsp), %ymm1, %ymm1 vpaddd 704(%rsp), %ymm2, %ymm2 vpaddd 736(%rsp), %ymm3, %ymm3 vpaddd 768(%rsp), %ymm4, %ymm4 vpaddd 800(%rsp), %ymm5, %ymm5 vpaddd 832(%rsp), %ymm6, %ymm6 vpaddd 864(%rsp), %ymm7, %ymm7 vpaddd 896(%rsp), %ymm8, %ymm8 vpaddd 928(%rsp), %ymm9, %ymm9 vpaddd 960(%rsp), %ymm10, %ymm10 vpaddd 992(%rsp), %ymm11, %ymm11 vpaddd 1024(%rsp), %ymm12, %ymm12 vpaddd 1056(%rsp), %ymm13, %ymm13 vpaddd 1088(%rsp), %ymm14, %ymm14 vpaddd 1120(%rsp), %ymm15, %ymm15 vmovdqu %ymm8, 128(%rsp) vmovdqu %ymm9, 160(%rsp) vmovdqu %ymm10, 192(%rsp) vmovdqu %ymm11, 224(%rsp) vmovdqu %ymm12, 256(%rsp) vmovdqu %ymm13, 288(%rsp) vmovdqu %ymm14, 320(%rsp) vmovdqu %ymm15, 352(%rsp) vpunpckldq %ymm1, %ymm0, %ymm8 vpunpckhdq %ymm1, %ymm0, %ymm0 vpunpckldq %ymm3, %ymm2, %ymm1 vpunpckhdq %ymm3, %ymm2, %ymm2 vpunpckldq %ymm5, %ymm4, %ymm3 vpunpckhdq %ymm5, %ymm4, %ymm4 vpunpckldq %ymm7, %ymm6, %ymm5 vpunpckhdq %ymm7, %ymm6, %ymm6 vpunpcklqdq %ymm1, %ymm8, %ymm7 vpunpcklqdq %ymm5, %ymm3, %ymm9 vpunpckhqdq %ymm1, %ymm8, %ymm1 vpunpckhqdq %ymm5, %ymm3, %ymm3 vpunpcklqdq %ymm2, %ymm0, %ymm5 vpunpcklqdq %ymm6, %ymm4, %ymm8 vpunpckhqdq %ymm2, %ymm0, %ymm0 vpunpckhqdq %ymm6, %ymm4, %ymm2 vperm2i128 $32, %ymm9, %ymm7, %ymm4 vperm2i128 $49, %ymm9, %ymm7, %ymm6 vperm2i128 $32, %ymm3, %ymm1, %ymm7 vperm2i128 $49, %ymm3, %ymm1, %ymm1 vperm2i128 $32, %ymm8, %ymm5, %ymm3 vperm2i128 $49, %ymm8, %ymm5, %ymm5 vperm2i128 $32, %ymm2, %ymm0, %ymm8 vperm2i128 $49, %ymm2, %ymm0, %ymm0 vmovdqu %ymm4, 384(%rsp) vmovdqu %ymm7, 416(%rsp) vmovdqu %ymm3, 448(%rsp) vmovdqu %ymm8, 480(%rsp) vmovdqu %ymm6, 512(%rsp) vmovdqu %ymm1, 544(%rsp) vmovdqu %ymm5, 576(%rsp) vmovdqu %ymm0, 608(%rsp) vmovdqu 128(%rsp), %ymm0 vmovdqu 192(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 320(%rsp), %ymm3 vpunpckldq 160(%rsp), %ymm0, %ymm4 vpunpckhdq 160(%rsp), %ymm0, %ymm0 vpunpckldq 224(%rsp), %ymm1, %ymm5 vpunpckhdq 224(%rsp), %ymm1, %ymm1 vpunpckldq 288(%rsp), %ymm2, %ymm6 vpunpckhdq 288(%rsp), %ymm2, %ymm2 vpunpckldq 352(%rsp), %ymm3, %ymm7 vpunpckhdq 352(%rsp), %ymm3, %ymm3 vpunpcklqdq %ymm5, %ymm4, %ymm8 vpunpcklqdq %ymm7, %ymm6, %ymm9 vpunpckhqdq %ymm5, %ymm4, %ymm4 vpunpckhqdq %ymm7, %ymm6, %ymm5 vpunpcklqdq %ymm1, %ymm0, %ymm6 vpunpcklqdq %ymm3, %ymm2, %ymm7 vpunpckhqdq %ymm1, %ymm0, %ymm0 vpunpckhqdq %ymm3, %ymm2, %ymm1 vperm2i128 $32, %ymm9, %ymm8, %ymm2 vperm2i128 $49, %ymm9, %ymm8, %ymm3 vperm2i128 $32, %ymm5, %ymm4, %ymm8 vperm2i128 $49, %ymm5, %ymm4, %ymm4 vperm2i128 $32, %ymm7, %ymm6, %ymm5 vperm2i128 $49, %ymm7, %ymm6, %ymm6 vperm2i128 $32, %ymm1, %ymm0, %ymm7 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vmovdqu 384(%rsp), %ymm1 vmovdqu %ymm2, %ymm12 vmovdqu 416(%rsp), %ymm11 vmovdqu %ymm8, %ymm10 vmovdqu 448(%rsp), %ymm9 vmovdqu %ymm5, %ymm8 vmovdqu 480(%rsp), %ymm5 vmovdqu %ymm7, %ymm2 cmpq $256, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$30 vpxor (%rsi), %ymm1, %ymm1 vmovdqu %ymm1, (%rdi) vpxor 32(%rsi), %ymm12, %ymm1 vmovdqu %ymm1, 32(%rdi) vpxor 64(%rsi), %ymm11, %ymm1 vmovdqu %ymm1, 64(%rdi) vpxor 96(%rsi), %ymm10, %ymm1 vmovdqu %ymm1, 96(%rdi) vpxor 128(%rsi), %ymm9, %ymm1 vmovdqu %ymm1, 128(%rdi) vpxor 160(%rsi), %ymm8, %ymm1 vmovdqu %ymm1, 160(%rdi) vpxor 192(%rsi), %ymm5, %ymm1 vmovdqu %ymm1, 192(%rdi) vpxor 224(%rsi), %ymm2, %ymm1 vmovdqu %ymm1, 224(%rdi) addq $256, %rdi addq $256, %rsi addq $-256, %rdx vmovdqu 512(%rsp), %ymm1 vmovdqu %ymm3, %ymm12 vmovdqu 544(%rsp), %ymm11 vmovdqu %ymm4, %ymm10 vmovdqu 576(%rsp), %ymm9 vmovdqu %ymm6, %ymm8 vmovdqu 608(%rsp), %ymm5 vmovdqu %ymm0, %ymm2 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$30: cmpq $128, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$29 vpxor (%rsi), %ymm1, %ymm0 vmovdqu %ymm0, (%rdi) vpxor 32(%rsi), %ymm12, %ymm0 vmovdqu %ymm0, 32(%rdi) vpxor 64(%rsi), %ymm11, %ymm0 vmovdqu %ymm0, 64(%rdi) vpxor 96(%rsi), %ymm10, %ymm0 vmovdqu %ymm0, 96(%rdi) addq $128, %rdi addq $128, %rsi addq $-128, %rdx vmovdqu %ymm9, %ymm1 vmovdqu %ymm8, %ymm12 vmovdqu %ymm5, %ymm11 vmovdqu %ymm2, %ymm10 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$29: cmpq $64, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$28 vpxor (%rsi), %ymm1, %ymm0 vmovdqu %ymm0, (%rdi) vpxor 32(%rsi), %ymm12, %ymm0 vmovdqu %ymm0, 32(%rdi) addq $64, %rdi addq $64, %rsi addq $-64, %rdx vmovdqu %ymm11, %ymm1 vmovdqu %ymm10, %ymm12 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$28: cmpq $32, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$27 vpxor (%rsi), %ymm1, %ymm0 vmovdqu %ymm0, (%rdi) addq $32, %rdi addq $32, %rsi addq $-32, %rdx vmovdqu %ymm12, %ymm1 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$27: vmovdqu %xmm1, %xmm0 cmpq $16, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$26 vpxor (%rsi), %xmm0, %xmm0 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $16, %rsi addq $-16, %rdx vextracti128 $1, %ymm1, %xmm0 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$26: vpextrq $0, %xmm0, %rax cmpq $8, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$23 xorq (%rsi), %rax movq %rax, (%rdi) addq $8, %rdi addq $8, %rsi addq $-8, %rdx vpextrq $1, %xmm0, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$25: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$23 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$24: movb %al, %cl xorb (%rsi), %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi incq %rsi addq $-1, %rdx Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$23: cmpq $0, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$24 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$22: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$1: vmovdqu glob_data + 160(%rip), %ymm0 vmovdqu glob_data + 128(%rip), %ymm1 vmovdqu glob_data + 480(%rip), %ymm2 vbroadcasti128 (%r8), %ymm3 vbroadcasti128 16(%r8), %ymm4 vpxor %xmm5, %xmm5, %xmm5 vpinsrd $1, (%rcx), %xmm5, %xmm5 vpinsrq $1, 4(%rcx), %xmm5, %xmm5 vpxor %ymm6, %ymm6, %ymm6 vinserti128 $0, %xmm5, %ymm6, %ymm6 vinserti128 $1, %xmm5, %ymm6, %ymm5 vpaddd glob_data + 96(%rip), %ymm5, %ymm5 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$19 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$20: vmovdqu %ymm2, %ymm6 vmovdqu %ymm3, %ymm7 vmovdqu %ymm4, %ymm8 vmovdqu %ymm5, %ymm9 vmovdqu %ymm2, %ymm10 vmovdqu %ymm3, %ymm11 vmovdqu %ymm4, %ymm12 vmovdqu %ymm5, %ymm13 vpaddd glob_data + 64(%rip), %ymm13, %ymm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$21: vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $57, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $-109, %ymm9, %ymm9 vpshufd $57, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $-109, %ymm13, %ymm13 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $-109, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $57, %ymm9, %ymm9 vpshufd $-109, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $57, %ymm13, %ymm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$21 vpaddd %ymm2, %ymm6, %ymm6 vpaddd %ymm3, %ymm7, %ymm7 vpaddd %ymm4, %ymm8, %ymm8 vpaddd %ymm5, %ymm9, %ymm9 vpaddd %ymm2, %ymm10, %ymm10 vpaddd %ymm3, %ymm11, %ymm11 vpaddd %ymm4, %ymm12, %ymm12 vpaddd %ymm5, %ymm13, %ymm13 vpaddd glob_data + 64(%rip), %ymm13, %ymm13 vperm2i128 $32, %ymm7, %ymm6, %ymm14 vperm2i128 $32, %ymm9, %ymm8, %ymm15 vperm2i128 $49, %ymm7, %ymm6, %ymm6 vperm2i128 $49, %ymm9, %ymm8, %ymm7 vperm2i128 $32, %ymm11, %ymm10, %ymm8 vperm2i128 $32, %ymm13, %ymm12, %ymm9 vperm2i128 $49, %ymm11, %ymm10, %ymm10 vperm2i128 $49, %ymm13, %ymm12, %ymm11 vpxor (%rsi), %ymm14, %ymm12 vmovdqu %ymm12, (%rdi) vpxor 32(%rsi), %ymm15, %ymm12 vmovdqu %ymm12, 32(%rdi) vpxor 64(%rsi), %ymm6, %ymm6 vmovdqu %ymm6, 64(%rdi) vpxor 96(%rsi), %ymm7, %ymm6 vmovdqu %ymm6, 96(%rdi) vpxor 128(%rsi), %ymm8, %ymm6 vmovdqu %ymm6, 128(%rdi) vpxor 160(%rsi), %ymm9, %ymm6 vmovdqu %ymm6, 160(%rdi) vpxor 192(%rsi), %ymm10, %ymm6 vmovdqu %ymm6, 192(%rdi) vpxor 224(%rsi), %ymm11, %ymm6 vmovdqu %ymm6, 224(%rdi) addq $256, %rdi addq $256, %rsi addq $-256, %rdx vpaddd glob_data + 32(%rip), %ymm5, %ymm5 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$19: cmpq $256, %rdx jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$20 cmpq $128, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$3 vmovdqu %ymm2, %ymm6 vmovdqu %ymm3, %ymm7 vmovdqu %ymm4, %ymm8 vmovdqu %ymm5, %ymm9 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$18: vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm0, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm10 vpsrld $20, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm1, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm10 vpsrld $25, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpshufd $57, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $-109, %ymm9, %ymm9 vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm0, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm10 vpsrld $20, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm1, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm10 vpsrld $25, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpshufd $-109, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $57, %ymm9, %ymm9 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$18 vpaddd %ymm2, %ymm6, %ymm0 vpaddd %ymm3, %ymm7, %ymm1 vpaddd %ymm4, %ymm8, %ymm2 vpaddd %ymm5, %ymm9, %ymm3 vperm2i128 $32, %ymm1, %ymm0, %ymm5 vperm2i128 $32, %ymm3, %ymm2, %ymm4 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vperm2i128 $49, %ymm3, %ymm2, %ymm1 cmpq $64, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$17 vpxor (%rsi), %ymm5, %ymm2 vmovdqu %ymm2, (%rdi) vpxor 32(%rsi), %ymm4, %ymm2 vmovdqu %ymm2, 32(%rdi) addq $64, %rdi addq $64, %rsi addq $-64, %rdx vmovdqu %ymm0, %ymm5 vmovdqu %ymm1, %ymm4 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$17: cmpq $32, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$16 vpxor (%rsi), %ymm5, %ymm0 vmovdqu %ymm0, (%rdi) addq $32, %rdi addq $32, %rsi addq $-32, %rdx vmovdqu %ymm4, %ymm5 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$16: vmovdqu %xmm5, %xmm0 cmpq $16, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$15 vpxor (%rsi), %xmm0, %xmm0 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $16, %rsi addq $-16, %rdx vextracti128 $1, %ymm5, %xmm0 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$15: vpextrq $0, %xmm0, %rax cmpq $8, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$12 xorq (%rsi), %rax movq %rax, (%rdi) addq $8, %rdi addq $8, %rsi addq $-8, %rdx vpextrq $1, %xmm0, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$14: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$12 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$13: movb %al, %cl xorb (%rsi), %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi incq %rsi addq $-1, %rdx Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$12: cmpq $0, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$13 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$3: vmovdqu %ymm2, %ymm6 vmovdqu %ymm3, %ymm7 vmovdqu %ymm4, %ymm8 vmovdqu %ymm5, %ymm9 vmovdqu %ymm2, %ymm10 vmovdqu %ymm3, %ymm11 vmovdqu %ymm4, %ymm12 vmovdqu %ymm5, %ymm13 vpaddd glob_data + 64(%rip), %ymm13, %ymm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$11: vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $57, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $-109, %ymm9, %ymm9 vpshufd $57, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $-109, %ymm13, %ymm13 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $-109, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $57, %ymm9, %ymm9 vpshufd $-109, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $57, %ymm13, %ymm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$11 vpaddd %ymm2, %ymm6, %ymm0 vpaddd %ymm3, %ymm7, %ymm1 vpaddd %ymm4, %ymm8, %ymm6 vpaddd %ymm5, %ymm9, %ymm7 vpaddd %ymm2, %ymm10, %ymm2 vpaddd %ymm3, %ymm11, %ymm3 vpaddd %ymm4, %ymm12, %ymm4 vpaddd %ymm5, %ymm13, %ymm5 vpaddd glob_data + 64(%rip), %ymm5, %ymm5 vperm2i128 $32, %ymm1, %ymm0, %ymm8 vperm2i128 $32, %ymm7, %ymm6, %ymm9 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vperm2i128 $49, %ymm7, %ymm6, %ymm1 vperm2i128 $32, %ymm3, %ymm2, %ymm7 vperm2i128 $32, %ymm5, %ymm4, %ymm6 vperm2i128 $49, %ymm3, %ymm2, %ymm2 vperm2i128 $49, %ymm5, %ymm4, %ymm3 vpxor (%rsi), %ymm8, %ymm4 vmovdqu %ymm4, (%rdi) vpxor 32(%rsi), %ymm9, %ymm4 vmovdqu %ymm4, 32(%rdi) vpxor 64(%rsi), %ymm0, %ymm0 vmovdqu %ymm0, 64(%rdi) vpxor 96(%rsi), %ymm1, %ymm0 vmovdqu %ymm0, 96(%rdi) addq $128, %rdi addq $128, %rsi addq $-128, %rdx cmpq $64, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$10 vpxor (%rsi), %ymm7, %ymm0 vmovdqu %ymm0, (%rdi) vpxor 32(%rsi), %ymm6, %ymm0 vmovdqu %ymm0, 32(%rdi) addq $64, %rdi addq $64, %rsi addq $-64, %rdx vmovdqu %ymm2, %ymm7 vmovdqu %ymm3, %ymm6 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$10: cmpq $32, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$9 vpxor (%rsi), %ymm7, %ymm0 vmovdqu %ymm0, (%rdi) addq $32, %rdi addq $32, %rsi addq $-32, %rdx vmovdqu %ymm6, %ymm7 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$9: vmovdqu %xmm7, %xmm0 cmpq $16, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$8 vpxor (%rsi), %xmm0, %xmm0 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $16, %rsi addq $-16, %rdx vextracti128 $1, %ymm7, %xmm0 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$8: vpextrq $0, %xmm0, %rax cmpq $8, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$5 xorq (%rsi), %rax movq %rax, (%rdi) addq $8, %rdi addq $8, %rsi addq $-8, %rdx vpextrq $1, %xmm0, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$7: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$5 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$6: movb %al, %cl xorb (%rsi), %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi incq %rsi addq $-1, %rdx Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$5: cmpq $0, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$6 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$4: Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2: xorq %rax, %rax movq %r10, %rsp ret .data .p2align 5 _glob_data: glob_data: .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 1 .byte 2 .byte 7 .byte 4 .byte 5 .byte 6 .byte 11 .byte 8 .byte 9 .byte 10 .byte 15 .byte 12 .byte 13 .byte 14 .byte 3 .byte 0 .byte 1 .byte 2 .byte 7 .byte 4 .byte 5 .byte 6 .byte 11 .byte 8 .byte 9 .byte 10 .byte 15 .byte 12 .byte 13 .byte 14 .byte 2 .byte 3 .byte 0 .byte 1 .byte 6 .byte 7 .byte 4 .byte 5 .byte 10 .byte 11 .byte 8 .byte 9 .byte 14 .byte 15 .byte 12 .byte 13 .byte 2 .byte 3 .byte 0 .byte 1 .byte 6 .byte 7 .byte 4 .byte 5 .byte 10 .byte 11 .byte 8 .byte 9 .byte 14 .byte 15 .byte 12 .byte 13 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 101 .byte 120 .byte 112 .byte 97 .byte 110 .byte 100 .byte 32 .byte 51 .byte 50 .byte 45 .byte 98 .byte 121 .byte 116 .byte 101 .byte 32 .byte 107 .byte 101 .byte 120 .byte 112 .byte 97 .byte 110 .byte 100 .byte 32 .byte 51 .byte 50 .byte 45 .byte 98 .byte 121 .byte 116 .byte 101 .byte 32 .byte 107
usenix-security-verdict/verdict
34,209
deps/libcrux/sys/libjade/jazz/sha3_224_avx2.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_224_amd64_avx2 .globl jade_hash_sha3_224_amd64_avx2 _jade_hash_sha3_224_amd64_avx2: jade_hash_sha3_224_amd64_avx2: movq %rsp, %rax leaq -40(%rsp), %rsp andq $-32, %rsp movq %rax, 32(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq $28, %r9 movb $6, %al movq $144, %rcx leaq -224(%rsp), %rsp leaq Ljade_hash_sha3_224_amd64_avx2$1(%rip), %r10 jmp L_keccak1600_avx2$1 Ljade_hash_sha3_224_amd64_avx2$1: leaq 224(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %rsp ret L_keccak1600_avx2$1: vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm5, %ymm5, %ymm5 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm2, %ymm2, %ymm2 leaq glob_data + 1152(%rip), %r8 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) jmp L_keccak1600_avx2$16 L_keccak1600_avx2$17: movq %rcx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$19 L_keccak1600_avx2$20: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$19: cmpq %r11, %rbx jb L_keccak1600_avx2$20 movq (%rsp), %r11 movq %r11, 8(%rsp) movq %r11, 16(%rsp) movq %r11, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 addq %rcx, %rsi subq %rcx, %rdx leaq glob_data + 384(%rip), %r11 movq $0, %rbx leaq glob_data + 192(%rip), %rbp leaq glob_data + 0(%rip), %r12 movq $24, %r13 L_keccak1600_avx2$18: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rbp), %ymm4, %ymm7 vpsrlvq (%r12), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rbp), %ymm0, %ymm7 vpsrlvq 64(%r12), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rbp), %ymm5, %ymm7 vpsrlvq 96(%r12), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rbp), %ymm1, %ymm5 vpsrlvq 128(%r12), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rbp), %ymm2, %ymm0 vpsrlvq 160(%r12), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rbp), %ymm0, %ymm1 vpsrlvq 32(%r12), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%r11,%rbx), %ymm6, %ymm6 addq $32, %rbx decq %r13 jne L_keccak1600_avx2$18 L_keccak1600_avx2$16: cmpq %rcx, %rdx jnb L_keccak1600_avx2$17 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) movq %rdx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$14 L_keccak1600_avx2$15: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$14: cmpq %r11, %rbx jb L_keccak1600_avx2$15 movq (%r8,%rbx,8), %r11 shlq $3, %r11 shlq $3, %rbx jmp L_keccak1600_avx2$12 L_keccak1600_avx2$13: movb (%rsi,%rbx), %bpl movb %bpl, (%rsp,%r11) incq %rbx incq %r11 L_keccak1600_avx2$12: cmpq %rdx, %rbx jb L_keccak1600_avx2$13 movb %al, (%rsp,%r11) movq %rcx, %rax addq $-1, %rax shrq $3, %rax movq (%r8,%rax,8), %rax shlq $3, %rax movq %rcx, %rdx addq $-1, %rdx andq $7, %rdx addq %rdx, %rax xorb $-128, (%rsp,%rax) movq (%rsp), %rax movq %rax, 8(%rsp) movq %rax, 16(%rsp) movq %rax, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 leaq glob_data + 1152(%rip), %rax jmp L_keccak1600_avx2$7 L_keccak1600_avx2$8: leaq glob_data + 384(%rip), %rdx movq $0, %rsi leaq glob_data + 192(%rip), %r8 leaq glob_data + 0(%rip), %r11 movq $24, %rbx L_keccak1600_avx2$11: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r8), %ymm4, %ymm7 vpsrlvq (%r11), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%r8), %ymm0, %ymm7 vpsrlvq 64(%r11), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%r8), %ymm5, %ymm7 vpsrlvq 96(%r11), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%r8), %ymm1, %ymm5 vpsrlvq 128(%r11), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%r8), %ymm2, %ymm0 vpsrlvq 160(%r11), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%r8), %ymm0, %ymm1 vpsrlvq 32(%r11), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rdx,%rsi), %ymm6, %ymm6 addq $32, %rsi decq %rbx jne L_keccak1600_avx2$11 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_avx2$9 L_keccak1600_avx2$10: movq (%rax,%rsi,8), %r8 movq (%rsp,%r8,8), %r8 movq %r8, (%rdi,%rsi,8) incq %rsi L_keccak1600_avx2$9: cmpq %rdx, %rsi jb L_keccak1600_avx2$10 addq %rcx, %rdi subq %rcx, %r9 L_keccak1600_avx2$7: cmpq %rcx, %r9 jnbe L_keccak1600_avx2$8 leaq glob_data + 384(%rip), %rcx movq $0, %rdx leaq glob_data + 192(%rip), %rsi leaq glob_data + 0(%rip), %r8 movq $24, %r11 L_keccak1600_avx2$6: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm4, %ymm7 vpsrlvq (%r8), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rsi), %ymm0, %ymm7 vpsrlvq 64(%r8), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rsi), %ymm5, %ymm7 vpsrlvq 96(%r8), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rsi), %ymm1, %ymm5 vpsrlvq 128(%r8), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rsi), %ymm2, %ymm0 vpsrlvq 160(%r8), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rsi), %ymm0, %ymm1 vpsrlvq 32(%r8), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r11 jne L_keccak1600_avx2$6 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %r9, %rcx shrq $3, %rcx movq $0, %rdx jmp L_keccak1600_avx2$4 L_keccak1600_avx2$5: movq (%rax,%rdx,8), %rsi movq (%rsp,%rsi,8), %rsi movq %rsi, (%rdi,%rdx,8) incq %rdx L_keccak1600_avx2$4: cmpq %rcx, %rdx jb L_keccak1600_avx2$5 movq (%rax,%rdx,8), %rax shlq $3, %rdx shlq $3, %rax jmp L_keccak1600_avx2$2 L_keccak1600_avx2$3: movb (%rsp,%rax), %cl movb %cl, (%rdi,%rdx) incq %rdx incq %rax L_keccak1600_avx2$2: cmpq %r9, %rdx jb L_keccak1600_avx2$3 jmp *%r10 .data .p2align 5 _glob_data: glob_data: .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 46 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 63 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 37 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 58 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 54 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 49 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 50 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 41 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 45 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 55 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 24 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 13 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 16 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 22 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 11 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 12 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 26 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 17 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0
usenix-security-verdict/verdict
32,893
deps/libcrux/sys/libjade/jazz/poly1305_avx2.s
.att_syntax .text .p2align 5 .globl _jade_onetimeauth_poly1305_amd64_avx2_verify .globl jade_onetimeauth_poly1305_amd64_avx2_verify .globl _jade_onetimeauth_poly1305_amd64_avx2 .globl jade_onetimeauth_poly1305_amd64_avx2 _jade_onetimeauth_poly1305_amd64_avx2_verify: jade_onetimeauth_poly1305_amd64_avx2_verify: movq %rsp, %rax leaq -696(%rsp), %rsp andq $-32, %rsp movq %rax, 688(%rsp) movq %rbx, 640(%rsp) movq %rbp, 648(%rsp) movq %r12, 656(%rsp) movq %r13, 664(%rsp) movq %r14, 672(%rsp) movq %r15, 680(%rsp) movq %rdx, %r14 movq %rcx, %r15 cmpq $256, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$1 movq $0, %rbx movq $0, %r12 movq $0, %r8 movq (%r15), %rbp movq 8(%r15), %r13 movq $1152921487695413247, %rax andq %rax, %rbp movq $1152921487695413244, %rax andq %rax, %r13 movq %r13, %r9 shrq $2, %r9 addq %r13, %r9 addq $16, %r15 jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$9 Ljade_onetimeauth_poly1305_amd64_avx2_verify$10: addq (%rsi), %rbx adcq 8(%rsi), %r12 adcq $1, %r8 movq %r9, %r11 imulq %r8, %r11 imulq %rbp, %r8 movq %rbp, %rax mulq %rbx movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r12 addq %rax, %r10 adcq %rdx, %r8 movq %r9, %rax mulq %r12 movq %rdx, %r12 addq %r11, %r12 movq %rax, %r11 movq %r13, %rax mulq %rbx addq %r11, %rcx adcq %rax, %r10 adcq %rdx, %r8 movq $-4, %rbx movq %r8, %rax shrq $2, %rax andq %r8, %rbx addq %rax, %rbx andq $3, %r8 addq %rcx, %rbx adcq %r10, %r12 adcq $0, %r8 addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx2_verify$9: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$10 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx2_verify$8 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %rbx adcq %rax, %r12 adcq $0, %r8 movq %r9, %rsi imulq %r8, %rsi imulq %rbp, %r8 movq %rbp, %rax mulq %rbx movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r12 addq %rax, %r10 adcq %rdx, %r8 movq %r9, %rax mulq %r12 movq %rdx, %r12 addq %rsi, %r12 movq %rax, %rsi movq %r13, %rax mulq %rbx addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %r8 movq $-4, %rbx movq %r8, %rax shrq $2, %rax andq %r8, %rbx addq %rax, %rbx andq $3, %r8 addq %rcx, %rbx adcq %r10, %r12 adcq $0, %r8 Ljade_onetimeauth_poly1305_amd64_avx2_verify$8: movq %rbx, %rax movq %r12, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r8 shrq $2, %r8 negq %r8 xorq %rbx, %rax xorq %r12, %rcx andq %r8, %rax andq %r8, %rcx xorq %rbx, %rax xorq %r12, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$2 Ljade_onetimeauth_poly1305_amd64_avx2_verify$1: movq (%r15), %rbp movq 8(%r15), %r13 movq $1152921487695413247, %rax andq %rax, %rbp movq $1152921487695413244, %rax andq %rax, %r13 movq %r13, %r12 shrq $2, %r12 addq %r13, %r12 addq $16, %r15 movq %rbp, %r8 movq %r13, %r11 movq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 344(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 376(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 408(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 440(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 472(%rsp) movq %r12, %r10 imulq %rbx, %r10 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %r12, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r13, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 336(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 368(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 400(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 432(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 464(%rsp) movq %r12, %r10 imulq %rbx, %r10 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %r12, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r13, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 328(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 360(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 392(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 424(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 456(%rsp) movq %r12, %r9 imulq %rbx, %r9 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r11 addq %rax, %r10 adcq %rdx, %rbx movq %r12, %rax mulq %r11 movq %rdx, %r11 addq %r9, %r11 movq %rax, %r9 movq %r13, %rax mulq %r8 addq %r9, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %rax movq %rbx, %rdx shrq $2, %rdx andq %rbx, %rax addq %rdx, %rax andq $3, %rbx addq %rcx, %rax adcq %r10, %r11 adcq $0, %rbx movq %rax, %rcx andq $67108863, %rcx movq %rcx, 320(%rsp) movq %rax, %rcx shrq $26, %rcx andq $67108863, %rcx movq %rcx, 352(%rsp) shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 384(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 416(%rsp) shrdq $40, %rbx, %r11 movq %r11, 448(%rsp) vpbroadcastq glob_data + 16(%rip), %ymm0 vpmuludq 352(%rsp), %ymm0, %ymm1 vmovdqu %ymm1, 64(%rsp) vpmuludq 384(%rsp), %ymm0, %ymm1 vmovdqu %ymm1, 96(%rsp) vpmuludq 416(%rsp), %ymm0, %ymm1 vmovdqu %ymm1, 128(%rsp) vpmuludq 448(%rsp), %ymm0, %ymm0 vmovdqu %ymm0, 160(%rsp) vpbroadcastq 320(%rsp), %ymm0 vmovdqu %ymm0, 480(%rsp) vpbroadcastq 352(%rsp), %ymm0 vmovdqu %ymm0, 512(%rsp) vpbroadcastq 384(%rsp), %ymm0 vmovdqu %ymm0, 544(%rsp) vpbroadcastq 416(%rsp), %ymm0 vmovdqu %ymm0, 576(%rsp) vpbroadcastq 448(%rsp), %ymm0 vmovdqu %ymm0, 608(%rsp) vpbroadcastq 64(%rsp), %ymm0 vmovdqu %ymm0, 192(%rsp) vpbroadcastq 96(%rsp), %ymm0 vmovdqu %ymm0, 224(%rsp) vpbroadcastq 128(%rsp), %ymm0 vmovdqu %ymm0, 256(%rsp) vpbroadcastq 160(%rsp), %ymm0 vmovdqu %ymm0, 288(%rsp) vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpbroadcastq glob_data + 8(%rip), %ymm7 vmovdqu %ymm7, (%rsp) vpbroadcastq glob_data + 0(%rip), %ymm2 vmovdqu %ymm2, 32(%rsp) vmovdqu (%rsi), %ymm2 vmovdqu 32(%rsi), %ymm5 addq $64, %rsi vperm2i128 $32, %ymm5, %ymm2, %ymm9 vperm2i128 $49, %ymm5, %ymm2, %ymm2 vpsrldq $6, %ymm9, %ymm5 vpsrldq $6, %ymm2, %ymm10 vpunpckhqdq %ymm2, %ymm9, %ymm8 vpunpcklqdq %ymm2, %ymm9, %ymm9 vpunpcklqdq %ymm10, %ymm5, %ymm10 vpsrlq $4, %ymm10, %ymm2 vpand %ymm7, %ymm2, %ymm2 vpsrlq $26, %ymm9, %ymm11 vpand %ymm7, %ymm9, %ymm5 vpsrlq $30, %ymm10, %ymm9 vpand %ymm7, %ymm9, %ymm9 vpsrlq $40, %ymm8, %ymm8 vpor 32(%rsp), %ymm8, %ymm10 vpand %ymm7, %ymm11, %ymm11 jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$6 Ljade_onetimeauth_poly1305_amd64_avx2_verify$7: vmovdqu 480(%rsp), %ymm8 vmovdqu 512(%rsp), %ymm7 vmovdqu 288(%rsp), %ymm13 vpaddq %ymm5, %ymm0, %ymm0 vpaddq %ymm11, %ymm1, %ymm1 vpmuludq %ymm8, %ymm0, %ymm5 vpaddq %ymm2, %ymm6, %ymm2 vpmuludq %ymm7, %ymm0, %ymm6 vpaddq %ymm9, %ymm3, %ymm3 vpmuludq %ymm8, %ymm1, %ymm9 vpaddq %ymm10, %ymm4, %ymm4 vpmuludq %ymm7, %ymm1, %ymm12 vpmuludq %ymm8, %ymm2, %ymm14 vpmuludq %ymm7, %ymm2, %ymm10 vpmuludq %ymm8, %ymm3, %ymm11 vpaddq %ymm6, %ymm9, %ymm6 vpmuludq %ymm7, %ymm3, %ymm9 vpaddq %ymm12, %ymm14, %ymm7 vpmuludq %ymm8, %ymm4, %ymm8 vpaddq %ymm10, %ymm11, %ymm11 vpaddq %ymm9, %ymm8, %ymm12 vpmuludq %ymm13, %ymm1, %ymm14 vmovdqu (%rsi), %ymm8 vpmuludq %ymm13, %ymm2, %ymm15 vmovdqu 544(%rsp), %ymm9 vpmuludq %ymm13, %ymm3, %ymm10 vpmuludq %ymm13, %ymm4, %ymm13 vpaddq %ymm14, %ymm5, %ymm5 vmovdqu 32(%rsi), %ymm14 vpaddq %ymm15, %ymm6, %ymm6 vpaddq %ymm10, %ymm7, %ymm10 vpaddq %ymm13, %ymm11, %ymm11 vpmuludq %ymm9, %ymm0, %ymm15 vperm2i128 $32, %ymm14, %ymm8, %ymm7 vpmuludq %ymm9, %ymm1, %ymm13 vperm2i128 $49, %ymm14, %ymm8, %ymm8 vpmuludq %ymm9, %ymm2, %ymm14 vpaddq %ymm15, %ymm10, %ymm9 vmovdqu 256(%rsp), %ymm10 vpaddq %ymm13, %ymm11, %ymm11 vpaddq %ymm14, %ymm12, %ymm12 vpmuludq %ymm10, %ymm2, %ymm2 vpmuludq %ymm10, %ymm3, %ymm13 vmovdqu 576(%rsp), %ymm14 vpmuludq %ymm10, %ymm4, %ymm10 vpsrldq $6, %ymm7, %ymm15 vpaddq %ymm2, %ymm5, %ymm2 vpsrldq $6, %ymm8, %ymm5 vpaddq %ymm13, %ymm6, %ymm6 vpaddq %ymm9, %ymm10, %ymm9 vmovdqu 224(%rsp), %ymm10 vpmuludq %ymm14, %ymm0, %ymm13 vpmuludq %ymm14, %ymm1, %ymm1 vpunpckhqdq %ymm8, %ymm7, %ymm14 vpunpcklqdq %ymm8, %ymm7, %ymm7 vpaddq %ymm13, %ymm11, %ymm11 vpaddq %ymm1, %ymm12, %ymm1 vpmuludq %ymm10, %ymm3, %ymm3 vpmuludq %ymm10, %ymm4, %ymm8 vpaddq %ymm3, %ymm2, %ymm2 vpaddq %ymm6, %ymm8, %ymm3 vmovdqu (%rsp), %ymm8 vpmuludq 192(%rsp), %ymm4, %ymm4 vpmuludq 608(%rsp), %ymm0, %ymm0 vpunpcklqdq %ymm5, %ymm15, %ymm10 vpsrlq $4, %ymm10, %ymm6 vpaddq %ymm4, %ymm2, %ymm2 vpsrlq $26, %ymm2, %ymm12 vpand %ymm8, %ymm2, %ymm4 vpand %ymm8, %ymm11, %ymm5 vpsrlq $26, %ymm11, %ymm13 vpaddq %ymm0, %ymm1, %ymm1 vpand %ymm8, %ymm6, %ymm2 vpsrlq $26, %ymm7, %ymm11 vpaddq %ymm12, %ymm3, %ymm0 vpaddq %ymm13, %ymm1, %ymm6 vpsrlq $26, %ymm0, %ymm1 vpsrlq $26, %ymm6, %ymm3 vpsllq $2, %ymm3, %ymm12 vpaddq %ymm12, %ymm3, %ymm13 vpand %ymm8, %ymm0, %ymm3 vpand %ymm8, %ymm6, %ymm12 vpaddq %ymm1, %ymm9, %ymm0 vpaddq %ymm13, %ymm4, %ymm1 vpsrlq $26, %ymm0, %ymm4 vpsrlq $26, %ymm1, %ymm9 vpand %ymm8, %ymm0, %ymm6 vpand %ymm8, %ymm1, %ymm0 vpaddq %ymm4, %ymm5, %ymm4 vpaddq %ymm9, %ymm3, %ymm1 vpsrlq $26, %ymm4, %ymm5 vpand %ymm8, %ymm4, %ymm3 vpaddq %ymm5, %ymm12, %ymm4 addq $64, %rsi vpand %ymm8, %ymm7, %ymm5 vpsrlq $30, %ymm10, %ymm7 vpand %ymm8, %ymm7, %ymm9 vpsrlq $40, %ymm14, %ymm7 vpor 32(%rsp), %ymm7, %ymm10 vpand %ymm8, %ymm11, %ymm11 addq $-64, %r14 Ljade_onetimeauth_poly1305_amd64_avx2_verify$6: cmpq $128, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$7 addq $-64, %r14 vmovdqu 320(%rsp), %ymm7 vmovdqu 352(%rsp), %ymm8 vmovdqu 160(%rsp), %ymm12 vpaddq %ymm5, %ymm0, %ymm0 vpaddq %ymm11, %ymm1, %ymm1 vpaddq %ymm2, %ymm6, %ymm2 vpaddq %ymm9, %ymm3, %ymm3 vpaddq %ymm10, %ymm4, %ymm4 vpmuludq %ymm7, %ymm0, %ymm5 vpmuludq %ymm7, %ymm1, %ymm6 vpmuludq %ymm7, %ymm2, %ymm9 vpmuludq %ymm7, %ymm3, %ymm10 vpmuludq %ymm7, %ymm4, %ymm7 vpmuludq %ymm8, %ymm0, %ymm11 vpmuludq %ymm8, %ymm1, %ymm13 vpmuludq %ymm8, %ymm2, %ymm14 vpmuludq %ymm8, %ymm3, %ymm8 vmovdqu 384(%rsp), %ymm15 vpaddq %ymm11, %ymm6, %ymm6 vpaddq %ymm13, %ymm9, %ymm9 vpaddq %ymm14, %ymm10, %ymm10 vpaddq %ymm8, %ymm7, %ymm7 vpmuludq %ymm12, %ymm1, %ymm8 vpmuludq %ymm12, %ymm2, %ymm11 vpmuludq %ymm12, %ymm3, %ymm13 vpmuludq %ymm12, %ymm4, %ymm12 vmovdqu 128(%rsp), %ymm14 vpaddq %ymm8, %ymm5, %ymm5 vpaddq %ymm11, %ymm6, %ymm6 vpaddq %ymm13, %ymm9, %ymm8 vpaddq %ymm12, %ymm10, %ymm10 vpmuludq %ymm15, %ymm0, %ymm13 vpmuludq %ymm15, %ymm1, %ymm11 vpmuludq %ymm15, %ymm2, %ymm12 vmovdqu 416(%rsp), %ymm9 vpaddq %ymm13, %ymm8, %ymm8 vpaddq %ymm11, %ymm10, %ymm10 vpaddq %ymm12, %ymm7, %ymm7 vpmuludq %ymm14, %ymm2, %ymm2 vpmuludq %ymm14, %ymm3, %ymm12 vpmuludq %ymm14, %ymm4, %ymm13 vmovdqu 96(%rsp), %ymm11 vpaddq %ymm2, %ymm5, %ymm5 vpaddq %ymm12, %ymm6, %ymm6 vpaddq %ymm8, %ymm13, %ymm2 vpmuludq %ymm9, %ymm0, %ymm8 vpmuludq %ymm9, %ymm1, %ymm9 vpaddq %ymm8, %ymm10, %ymm1 vpaddq %ymm9, %ymm7, %ymm7 vpmuludq %ymm11, %ymm3, %ymm3 vpmuludq %ymm11, %ymm4, %ymm8 vpaddq %ymm3, %ymm5, %ymm5 vpaddq %ymm6, %ymm8, %ymm3 vpmuludq 64(%rsp), %ymm4, %ymm4 vpmuludq 448(%rsp), %ymm0, %ymm0 vpaddq %ymm4, %ymm5, %ymm4 vmovdqu %ymm1, %ymm5 vpaddq %ymm0, %ymm7, %ymm6 vmovdqu (%rsp), %ymm0 vpsrlq $26, %ymm4, %ymm7 vpsrlq $26, %ymm5, %ymm8 vpand %ymm0, %ymm4, %ymm1 vpand %ymm0, %ymm5, %ymm4 vpaddq %ymm7, %ymm3, %ymm3 vpaddq %ymm8, %ymm6, %ymm5 vpsrlq $26, %ymm3, %ymm6 vpsrlq $26, %ymm5, %ymm7 vpsllq $2, %ymm7, %ymm8 vpaddq %ymm8, %ymm7, %ymm7 vpand %ymm0, %ymm3, %ymm8 vpand %ymm0, %ymm5, %ymm3 vpaddq %ymm6, %ymm2, %ymm2 vpaddq %ymm7, %ymm1, %ymm5 vpsrlq $26, %ymm2, %ymm6 vpsrlq $26, %ymm5, %ymm7 vpand %ymm0, %ymm2, %ymm1 vpand %ymm0, %ymm5, %ymm2 vpaddq %ymm6, %ymm4, %ymm4 vpaddq %ymm7, %ymm8, %ymm5 vpsrlq $26, %ymm4, %ymm6 vpand %ymm0, %ymm4, %ymm0 vpaddq %ymm6, %ymm3, %ymm3 vpsllq $26, %ymm5, %ymm4 vpaddq %ymm2, %ymm4, %ymm2 vpsllq $26, %ymm0, %ymm0 vpaddq %ymm1, %ymm0, %ymm0 vpsrldq $8, %ymm3, %ymm1 vpaddq %ymm3, %ymm1, %ymm1 vpermq $-128, %ymm1, %ymm1 vperm2i128 $32, %ymm0, %ymm2, %ymm3 vperm2i128 $49, %ymm0, %ymm2, %ymm0 vpaddq %ymm0, %ymm3, %ymm0 vpunpcklqdq %ymm1, %ymm0, %ymm2 vpunpckhqdq %ymm1, %ymm0, %ymm0 vpaddq %ymm0, %ymm2, %ymm0 vextracti128 $1, %ymm0, %xmm1 vpextrq $0, %xmm0, %rax vpextrq $0, %xmm1, %r9 vpextrq $1, %xmm1, %rcx movq %r9, %rbx shlq $52, %rbx shrq $12, %r9 movq %rcx, %r8 shrq $24, %r8 shlq $40, %rcx addq %rax, %rbx adcq %rcx, %r9 adcq $0, %r8 movq %r8, %rax movq %r8, %rcx andq $3, %r8 shrq $2, %rax andq $-4, %rcx addq %rcx, %rax addq %rax, %rbx adcq $0, %r9 adcq $0, %r8 jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$4 Ljade_onetimeauth_poly1305_amd64_avx2_verify$5: addq (%rsi), %rbx adcq 8(%rsi), %r9 adcq $1, %r8 movq %r12, %r10 imulq %r8, %r10 imulq %rbp, %r8 movq %rbp, %rax mulq %rbx movq %rax, %rcx movq %rdx, %r11 movq %rbp, %rax mulq %r9 addq %rax, %r11 adcq %rdx, %r8 movq %r12, %rax mulq %r9 movq %rdx, %r9 addq %r10, %r9 movq %rax, %r10 movq %r13, %rax mulq %rbx addq %r10, %rcx adcq %rax, %r11 adcq %rdx, %r8 movq $-4, %rbx movq %r8, %rax shrq $2, %rax andq %r8, %rbx addq %rax, %rbx andq $3, %r8 addq %rcx, %rbx adcq %r11, %r9 adcq $0, %r8 addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx2_verify$4: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$5 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx2_verify$3 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %rbx adcq %rax, %r9 adcq $0, %r8 movq %r12, %rsi imulq %r8, %rsi imulq %rbp, %r8 movq %rbp, %rax mulq %rbx movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r9 addq %rax, %r10 adcq %rdx, %r8 movq %r12, %rax mulq %r9 movq %rdx, %r9 addq %rsi, %r9 movq %rax, %rsi movq %r13, %rax mulq %rbx addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %r8 movq $-4, %rbx movq %r8, %rax shrq $2, %rax andq %r8, %rbx addq %rax, %rbx andq $3, %r8 addq %rcx, %rbx adcq %r10, %r9 adcq $0, %r8 Ljade_onetimeauth_poly1305_amd64_avx2_verify$3: movq %rbx, %rax movq %r9, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r8 shrq $2, %r8 negq %r8 xorq %rbx, %rax xorq %r9, %rcx andq %r8, %rax andq %r8, %rcx xorq %rbx, %rax xorq %r9, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx Ljade_onetimeauth_poly1305_amd64_avx2_verify$2: movq %rax, %rdx xorq (%rdi), %rdx xorq 8(%rdi), %rcx orq %rcx, %rdx xorq %rax, %rax subq $1, %rdx adcq $0, %rax addq $-1, %rax movq 640(%rsp), %rbx movq 648(%rsp), %rbp movq 656(%rsp), %r12 movq 664(%rsp), %r13 movq 672(%rsp), %r14 movq 680(%rsp), %r15 movq 688(%rsp), %rsp ret _jade_onetimeauth_poly1305_amd64_avx2: jade_onetimeauth_poly1305_amd64_avx2: movq %rsp, %rax leaq -696(%rsp), %rsp andq $-32, %rsp movq %rax, 688(%rsp) movq %rbx, 640(%rsp) movq %rbp, 648(%rsp) movq %r12, 656(%rsp) movq %r13, 664(%rsp) movq %r14, 672(%rsp) movq %r15, 680(%rsp) movq %rdx, %r14 movq %rcx, %r15 cmpq $256, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2$1 movq $0, %rbp movq $0, %r12 movq $0, %r8 movq (%r15), %r9 movq 8(%r15), %r13 movq $1152921487695413247, %rax andq %rax, %r9 movq $1152921487695413244, %rax andq %rax, %r13 movq %r13, %rbx shrq $2, %rbx addq %r13, %rbx addq $16, %r15 jmp Ljade_onetimeauth_poly1305_amd64_avx2$9 Ljade_onetimeauth_poly1305_amd64_avx2$10: addq (%rsi), %rbp adcq 8(%rsi), %r12 adcq $1, %r8 movq %rbx, %r11 imulq %r8, %r11 imulq %r9, %r8 movq %r9, %rax mulq %rbp movq %rax, %rcx movq %rdx, %r10 movq %r9, %rax mulq %r12 addq %rax, %r10 adcq %rdx, %r8 movq %rbx, %rax mulq %r12 movq %rdx, %r12 addq %r11, %r12 movq %rax, %r11 movq %r13, %rax mulq %rbp addq %r11, %rcx adcq %rax, %r10 adcq %rdx, %r8 movq $-4, %rbp movq %r8, %rax shrq $2, %rax andq %r8, %rbp addq %rax, %rbp andq $3, %r8 addq %rcx, %rbp adcq %r10, %r12 adcq $0, %r8 addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx2$9: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2$10 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx2$8 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %rbp adcq %rax, %r12 adcq $0, %r8 movq %rbx, %rsi imulq %r8, %rsi imulq %r9, %r8 movq %r9, %rax mulq %rbp movq %rax, %rcx movq %rdx, %r10 movq %r9, %rax mulq %r12 addq %rax, %r10 adcq %rdx, %r8 movq %rbx, %rax mulq %r12 movq %rdx, %r12 addq %rsi, %r12 movq %rax, %rsi movq %r13, %rax mulq %rbp addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %r8 movq $-4, %rbp movq %r8, %rax shrq $2, %rax andq %r8, %rbp addq %rax, %rbp andq $3, %r8 addq %rcx, %rbp adcq %r10, %r12 adcq $0, %r8 Ljade_onetimeauth_poly1305_amd64_avx2$8: movq %rbp, %rax movq %r12, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r8 shrq $2, %r8 negq %r8 xorq %rbp, %rax xorq %r12, %rcx andq %r8, %rax andq %r8, %rcx xorq %rbp, %rax xorq %r12, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx jmp Ljade_onetimeauth_poly1305_amd64_avx2$2 Ljade_onetimeauth_poly1305_amd64_avx2$1: movq (%r15), %r13 movq 8(%r15), %r12 movq $1152921487695413247, %rax andq %rax, %r13 movq $1152921487695413244, %rax andq %rax, %r12 movq %r12, %rbp shrq $2, %rbp addq %r12, %rbp addq $16, %r15 movq %r13, %r8 movq %r12, %r11 movq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 344(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 376(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 408(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 440(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 472(%rsp) movq %rbp, %r10 imulq %rbx, %r10 imulq %r13, %rbx movq %r13, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %r13, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %rbp, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r12, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 336(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 368(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 400(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 432(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 464(%rsp) movq %rbp, %r10 imulq %rbx, %r10 imulq %r13, %rbx movq %r13, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %r13, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %rbp, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r12, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 328(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 360(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 392(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 424(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 456(%rsp) movq %rbp, %r9 imulq %rbx, %r9 imulq %r13, %rbx movq %r13, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r10 movq %r13, %rax mulq %r11 addq %rax, %r10 adcq %rdx, %rbx movq %rbp, %rax mulq %r11 movq %rdx, %r11 addq %r9, %r11 movq %rax, %r9 movq %r12, %rax mulq %r8 addq %r9, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %rax movq %rbx, %rdx shrq $2, %rdx andq %rbx, %rax addq %rdx, %rax andq $3, %rbx addq %rcx, %rax adcq %r10, %r11 adcq $0, %rbx movq %rax, %rcx andq $67108863, %rcx movq %rcx, 320(%rsp) movq %rax, %rcx shrq $26, %rcx andq $67108863, %rcx movq %rcx, 352(%rsp) shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 384(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 416(%rsp) shrdq $40, %rbx, %r11 movq %r11, 448(%rsp) vpbroadcastq glob_data + 16(%rip), %ymm0 vpmuludq 352(%rsp), %ymm0, %ymm1 vmovdqu %ymm1, 64(%rsp) vpmuludq 384(%rsp), %ymm0, %ymm1 vmovdqu %ymm1, 96(%rsp) vpmuludq 416(%rsp), %ymm0, %ymm1 vmovdqu %ymm1, 128(%rsp) vpmuludq 448(%rsp), %ymm0, %ymm0 vmovdqu %ymm0, 160(%rsp) vpbroadcastq 320(%rsp), %ymm0 vmovdqu %ymm0, 480(%rsp) vpbroadcastq 352(%rsp), %ymm0 vmovdqu %ymm0, 512(%rsp) vpbroadcastq 384(%rsp), %ymm0 vmovdqu %ymm0, 544(%rsp) vpbroadcastq 416(%rsp), %ymm0 vmovdqu %ymm0, 576(%rsp) vpbroadcastq 448(%rsp), %ymm0 vmovdqu %ymm0, 608(%rsp) vpbroadcastq 64(%rsp), %ymm0 vmovdqu %ymm0, 192(%rsp) vpbroadcastq 96(%rsp), %ymm0 vmovdqu %ymm0, 224(%rsp) vpbroadcastq 128(%rsp), %ymm0 vmovdqu %ymm0, 256(%rsp) vpbroadcastq 160(%rsp), %ymm0 vmovdqu %ymm0, 288(%rsp) vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpbroadcastq glob_data + 8(%rip), %ymm7 vmovdqu %ymm7, (%rsp) vpbroadcastq glob_data + 0(%rip), %ymm2 vmovdqu %ymm2, 32(%rsp) vmovdqu (%rsi), %ymm2 vmovdqu 32(%rsi), %ymm5 addq $64, %rsi vperm2i128 $32, %ymm5, %ymm2, %ymm9 vperm2i128 $49, %ymm5, %ymm2, %ymm2 vpsrldq $6, %ymm9, %ymm5 vpsrldq $6, %ymm2, %ymm10 vpunpckhqdq %ymm2, %ymm9, %ymm8 vpunpcklqdq %ymm2, %ymm9, %ymm9 vpunpcklqdq %ymm10, %ymm5, %ymm10 vpsrlq $4, %ymm10, %ymm2 vpand %ymm7, %ymm2, %ymm2 vpsrlq $26, %ymm9, %ymm11 vpand %ymm7, %ymm9, %ymm5 vpsrlq $30, %ymm10, %ymm9 vpand %ymm7, %ymm9, %ymm9 vpsrlq $40, %ymm8, %ymm8 vpor 32(%rsp), %ymm8, %ymm10 vpand %ymm7, %ymm11, %ymm11 jmp Ljade_onetimeauth_poly1305_amd64_avx2$6 Ljade_onetimeauth_poly1305_amd64_avx2$7: vmovdqu 480(%rsp), %ymm8 vmovdqu 512(%rsp), %ymm7 vmovdqu 288(%rsp), %ymm13 vpaddq %ymm5, %ymm0, %ymm0 vpaddq %ymm11, %ymm1, %ymm1 vpmuludq %ymm8, %ymm0, %ymm5 vpaddq %ymm2, %ymm6, %ymm2 vpmuludq %ymm7, %ymm0, %ymm6 vpaddq %ymm9, %ymm3, %ymm3 vpmuludq %ymm8, %ymm1, %ymm9 vpaddq %ymm10, %ymm4, %ymm4 vpmuludq %ymm7, %ymm1, %ymm12 vpmuludq %ymm8, %ymm2, %ymm14 vpmuludq %ymm7, %ymm2, %ymm10 vpmuludq %ymm8, %ymm3, %ymm11 vpaddq %ymm6, %ymm9, %ymm6 vpmuludq %ymm7, %ymm3, %ymm9 vpaddq %ymm12, %ymm14, %ymm7 vpmuludq %ymm8, %ymm4, %ymm8 vpaddq %ymm10, %ymm11, %ymm11 vpaddq %ymm9, %ymm8, %ymm12 vpmuludq %ymm13, %ymm1, %ymm14 vmovdqu (%rsi), %ymm8 vpmuludq %ymm13, %ymm2, %ymm15 vmovdqu 544(%rsp), %ymm9 vpmuludq %ymm13, %ymm3, %ymm10 vpmuludq %ymm13, %ymm4, %ymm13 vpaddq %ymm14, %ymm5, %ymm5 vmovdqu 32(%rsi), %ymm14 vpaddq %ymm15, %ymm6, %ymm6 vpaddq %ymm10, %ymm7, %ymm10 vpaddq %ymm13, %ymm11, %ymm11 vpmuludq %ymm9, %ymm0, %ymm15 vperm2i128 $32, %ymm14, %ymm8, %ymm7 vpmuludq %ymm9, %ymm1, %ymm13 vperm2i128 $49, %ymm14, %ymm8, %ymm8 vpmuludq %ymm9, %ymm2, %ymm14 vpaddq %ymm15, %ymm10, %ymm9 vmovdqu 256(%rsp), %ymm10 vpaddq %ymm13, %ymm11, %ymm11 vpaddq %ymm14, %ymm12, %ymm12 vpmuludq %ymm10, %ymm2, %ymm2 vpmuludq %ymm10, %ymm3, %ymm13 vmovdqu 576(%rsp), %ymm14 vpmuludq %ymm10, %ymm4, %ymm10 vpsrldq $6, %ymm7, %ymm15 vpaddq %ymm2, %ymm5, %ymm2 vpsrldq $6, %ymm8, %ymm5 vpaddq %ymm13, %ymm6, %ymm6 vpaddq %ymm9, %ymm10, %ymm9 vmovdqu 224(%rsp), %ymm10 vpmuludq %ymm14, %ymm0, %ymm13 vpmuludq %ymm14, %ymm1, %ymm1 vpunpckhqdq %ymm8, %ymm7, %ymm14 vpunpcklqdq %ymm8, %ymm7, %ymm7 vpaddq %ymm13, %ymm11, %ymm11 vpaddq %ymm1, %ymm12, %ymm1 vpmuludq %ymm10, %ymm3, %ymm3 vpmuludq %ymm10, %ymm4, %ymm8 vpaddq %ymm3, %ymm2, %ymm2 vpaddq %ymm6, %ymm8, %ymm3 vmovdqu (%rsp), %ymm8 vpmuludq 192(%rsp), %ymm4, %ymm4 vpmuludq 608(%rsp), %ymm0, %ymm0 vpunpcklqdq %ymm5, %ymm15, %ymm10 vpsrlq $4, %ymm10, %ymm6 vpaddq %ymm4, %ymm2, %ymm2 vpsrlq $26, %ymm2, %ymm12 vpand %ymm8, %ymm2, %ymm4 vpand %ymm8, %ymm11, %ymm5 vpsrlq $26, %ymm11, %ymm13 vpaddq %ymm0, %ymm1, %ymm1 vpand %ymm8, %ymm6, %ymm2 vpsrlq $26, %ymm7, %ymm11 vpaddq %ymm12, %ymm3, %ymm0 vpaddq %ymm13, %ymm1, %ymm6 vpsrlq $26, %ymm0, %ymm1 vpsrlq $26, %ymm6, %ymm3 vpsllq $2, %ymm3, %ymm12 vpaddq %ymm12, %ymm3, %ymm13 vpand %ymm8, %ymm0, %ymm3 vpand %ymm8, %ymm6, %ymm12 vpaddq %ymm1, %ymm9, %ymm0 vpaddq %ymm13, %ymm4, %ymm1 vpsrlq $26, %ymm0, %ymm4 vpsrlq $26, %ymm1, %ymm9 vpand %ymm8, %ymm0, %ymm6 vpand %ymm8, %ymm1, %ymm0 vpaddq %ymm4, %ymm5, %ymm4 vpaddq %ymm9, %ymm3, %ymm1 vpsrlq $26, %ymm4, %ymm5 vpand %ymm8, %ymm4, %ymm3 vpaddq %ymm5, %ymm12, %ymm4 addq $64, %rsi vpand %ymm8, %ymm7, %ymm5 vpsrlq $30, %ymm10, %ymm7 vpand %ymm8, %ymm7, %ymm9 vpsrlq $40, %ymm14, %ymm7 vpor 32(%rsp), %ymm7, %ymm10 vpand %ymm8, %ymm11, %ymm11 addq $-64, %r14 Ljade_onetimeauth_poly1305_amd64_avx2$6: cmpq $128, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2$7 addq $-64, %r14 vmovdqu 320(%rsp), %ymm7 vmovdqu 352(%rsp), %ymm8 vmovdqu 160(%rsp), %ymm12 vpaddq %ymm5, %ymm0, %ymm0 vpaddq %ymm11, %ymm1, %ymm1 vpaddq %ymm2, %ymm6, %ymm2 vpaddq %ymm9, %ymm3, %ymm3 vpaddq %ymm10, %ymm4, %ymm4 vpmuludq %ymm7, %ymm0, %ymm5 vpmuludq %ymm7, %ymm1, %ymm6 vpmuludq %ymm7, %ymm2, %ymm9 vpmuludq %ymm7, %ymm3, %ymm10 vpmuludq %ymm7, %ymm4, %ymm7 vpmuludq %ymm8, %ymm0, %ymm11 vpmuludq %ymm8, %ymm1, %ymm13 vpmuludq %ymm8, %ymm2, %ymm14 vpmuludq %ymm8, %ymm3, %ymm8 vmovdqu 384(%rsp), %ymm15 vpaddq %ymm11, %ymm6, %ymm6 vpaddq %ymm13, %ymm9, %ymm9 vpaddq %ymm14, %ymm10, %ymm10 vpaddq %ymm8, %ymm7, %ymm7 vpmuludq %ymm12, %ymm1, %ymm8 vpmuludq %ymm12, %ymm2, %ymm11 vpmuludq %ymm12, %ymm3, %ymm13 vpmuludq %ymm12, %ymm4, %ymm12 vmovdqu 128(%rsp), %ymm14 vpaddq %ymm8, %ymm5, %ymm5 vpaddq %ymm11, %ymm6, %ymm6 vpaddq %ymm13, %ymm9, %ymm8 vpaddq %ymm12, %ymm10, %ymm10 vpmuludq %ymm15, %ymm0, %ymm13 vpmuludq %ymm15, %ymm1, %ymm11 vpmuludq %ymm15, %ymm2, %ymm12 vmovdqu 416(%rsp), %ymm9 vpaddq %ymm13, %ymm8, %ymm8 vpaddq %ymm11, %ymm10, %ymm10 vpaddq %ymm12, %ymm7, %ymm7 vpmuludq %ymm14, %ymm2, %ymm2 vpmuludq %ymm14, %ymm3, %ymm12 vpmuludq %ymm14, %ymm4, %ymm13 vmovdqu 96(%rsp), %ymm11 vpaddq %ymm2, %ymm5, %ymm5 vpaddq %ymm12, %ymm6, %ymm6 vpaddq %ymm8, %ymm13, %ymm2 vpmuludq %ymm9, %ymm0, %ymm8 vpmuludq %ymm9, %ymm1, %ymm9 vpaddq %ymm8, %ymm10, %ymm1 vpaddq %ymm9, %ymm7, %ymm7 vpmuludq %ymm11, %ymm3, %ymm3 vpmuludq %ymm11, %ymm4, %ymm8 vpaddq %ymm3, %ymm5, %ymm5 vpaddq %ymm6, %ymm8, %ymm3 vpmuludq 64(%rsp), %ymm4, %ymm4 vpmuludq 448(%rsp), %ymm0, %ymm0 vpaddq %ymm4, %ymm5, %ymm4 vmovdqu %ymm1, %ymm5 vpaddq %ymm0, %ymm7, %ymm6 vmovdqu (%rsp), %ymm0 vpsrlq $26, %ymm4, %ymm7 vpsrlq $26, %ymm5, %ymm8 vpand %ymm0, %ymm4, %ymm1 vpand %ymm0, %ymm5, %ymm4 vpaddq %ymm7, %ymm3, %ymm3 vpaddq %ymm8, %ymm6, %ymm5 vpsrlq $26, %ymm3, %ymm6 vpsrlq $26, %ymm5, %ymm7 vpsllq $2, %ymm7, %ymm8 vpaddq %ymm8, %ymm7, %ymm7 vpand %ymm0, %ymm3, %ymm8 vpand %ymm0, %ymm5, %ymm3 vpaddq %ymm6, %ymm2, %ymm2 vpaddq %ymm7, %ymm1, %ymm5 vpsrlq $26, %ymm2, %ymm6 vpsrlq $26, %ymm5, %ymm7 vpand %ymm0, %ymm2, %ymm1 vpand %ymm0, %ymm5, %ymm2 vpaddq %ymm6, %ymm4, %ymm4 vpaddq %ymm7, %ymm8, %ymm5 vpsrlq $26, %ymm4, %ymm6 vpand %ymm0, %ymm4, %ymm0 vpaddq %ymm6, %ymm3, %ymm3 vpsllq $26, %ymm5, %ymm4 vpaddq %ymm2, %ymm4, %ymm2 vpsllq $26, %ymm0, %ymm0 vpaddq %ymm1, %ymm0, %ymm0 vpsrldq $8, %ymm3, %ymm1 vpaddq %ymm3, %ymm1, %ymm1 vpermq $-128, %ymm1, %ymm1 vperm2i128 $32, %ymm0, %ymm2, %ymm3 vperm2i128 $49, %ymm0, %ymm2, %ymm0 vpaddq %ymm0, %ymm3, %ymm0 vpunpcklqdq %ymm1, %ymm0, %ymm2 vpunpckhqdq %ymm1, %ymm0, %ymm0 vpaddq %ymm0, %ymm2, %ymm0 vextracti128 $1, %ymm0, %xmm1 vpextrq $0, %xmm0, %rax vpextrq $0, %xmm1, %r8 vpextrq $1, %xmm1, %rcx movq %r8, %r9 shlq $52, %r9 shrq $12, %r8 movq %rcx, %rbx shrq $24, %rbx shlq $40, %rcx addq %rax, %r9 adcq %rcx, %r8 adcq $0, %rbx movq %rbx, %rax movq %rbx, %rcx andq $3, %rbx shrq $2, %rax andq $-4, %rcx addq %rcx, %rax addq %rax, %r9 adcq $0, %r8 adcq $0, %rbx jmp Ljade_onetimeauth_poly1305_amd64_avx2$4 Ljade_onetimeauth_poly1305_amd64_avx2$5: addq (%rsi), %r9 adcq 8(%rsi), %r8 adcq $1, %rbx movq %rbp, %r11 imulq %rbx, %r11 imulq %r13, %rbx movq %r13, %rax mulq %r9 movq %rax, %rcx movq %rdx, %r10 movq %r13, %rax mulq %r8 addq %rax, %r10 adcq %rdx, %rbx movq %rbp, %rax mulq %r8 movq %rdx, %r8 addq %r11, %r8 movq %rax, %r11 movq %r12, %rax mulq %r9 addq %r11, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %r9 movq %rbx, %rax shrq $2, %rax andq %rbx, %r9 addq %rax, %r9 andq $3, %rbx addq %rcx, %r9 adcq %r10, %r8 adcq $0, %rbx addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx2$4: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2$5 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx2$3 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %r9 adcq %rax, %r8 adcq $0, %rbx movq %rbp, %rsi imulq %rbx, %rsi imulq %r13, %rbx movq %r13, %rax mulq %r9 movq %rax, %rcx movq %rdx, %r10 movq %r13, %rax mulq %r8 addq %rax, %r10 adcq %rdx, %rbx movq %rbp, %rax mulq %r8 movq %rdx, %r8 addq %rsi, %r8 movq %rax, %rsi movq %r12, %rax mulq %r9 addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %r9 movq %rbx, %rax shrq $2, %rax andq %rbx, %r9 addq %rax, %r9 andq $3, %rbx addq %rcx, %r9 adcq %r10, %r8 adcq $0, %rbx Ljade_onetimeauth_poly1305_amd64_avx2$3: movq %r9, %rax movq %r8, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %rbx shrq $2, %rbx negq %rbx xorq %r9, %rax xorq %r8, %rcx andq %rbx, %rax andq %rbx, %rcx xorq %r9, %rax xorq %r8, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx Ljade_onetimeauth_poly1305_amd64_avx2$2: movq %rax, (%rdi) movq %rcx, 8(%rdi) xorq %rax, %rax movq 640(%rsp), %rbx movq 648(%rsp), %rbp movq 656(%rsp), %r12 movq 664(%rsp), %r13 movq 672(%rsp), %r14 movq 680(%rsp), %r15 movq 688(%rsp), %rsp ret .data .p2align 5 _glob_data: glob_data: .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte -1 .byte -1 .byte -1 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0
usenix-security-verdict/verdict
36,058
deps/libcrux/sys/libjade/jazz/poly1305_avx.s
.att_syntax .text .p2align 5 .globl _jade_onetimeauth_poly1305_amd64_avx_verify .globl jade_onetimeauth_poly1305_amd64_avx_verify .globl _jade_onetimeauth_poly1305_amd64_avx .globl jade_onetimeauth_poly1305_amd64_avx _jade_onetimeauth_poly1305_amd64_avx_verify: jade_onetimeauth_poly1305_amd64_avx_verify: movq %rsp, %rax leaq -600(%rsp), %rsp andq $-16, %rsp movq %rax, 592(%rsp) movq %rbx, 544(%rsp) movq %rbp, 552(%rsp) movq %r12, 560(%rsp) movq %r13, 568(%rsp) movq %r14, 576(%rsp) movq %r15, 584(%rsp) movq %rdx, %r14 movq %rcx, %r15 cmpq $1024, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$1 movq $0, %r8 movq $0, %r12 movq $0, %r13 movq (%r15), %rbp movq 8(%r15), %rbx movq $1152921487695413247, %rax andq %rax, %rbp movq $1152921487695413244, %rax andq %rax, %rbx movq %rbx, %r9 shrq $2, %r9 addq %rbx, %r9 addq $16, %r15 jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$9 Ljade_onetimeauth_poly1305_amd64_avx_verify$10: addq (%rsi), %r8 adcq 8(%rsi), %r12 adcq $1, %r13 movq %r9, %r10 imulq %r13, %r10 imulq %rbp, %r13 movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r11 movq %rbp, %rax mulq %r12 addq %rax, %r11 adcq %rdx, %r13 movq %r9, %rax mulq %r12 movq %rdx, %r12 addq %r10, %r12 movq %rax, %r10 movq %rbx, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r11 adcq %rdx, %r13 movq $-4, %r8 movq %r13, %rax shrq $2, %rax andq %r13, %r8 addq %rax, %r8 andq $3, %r13 addq %rcx, %r8 adcq %r11, %r12 adcq $0, %r13 addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx_verify$9: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$10 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx_verify$8 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %r8 adcq %rax, %r12 adcq $0, %r13 movq %r9, %rsi imulq %r13, %rsi imulq %rbp, %r13 movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r12 addq %rax, %r10 adcq %rdx, %r13 movq %r9, %rax mulq %r12 movq %rdx, %r12 addq %rsi, %r12 movq %rax, %rsi movq %rbx, %rax mulq %r8 addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %r13 movq $-4, %r8 movq %r13, %rax shrq $2, %rax andq %r13, %r8 addq %rax, %r8 andq $3, %r13 addq %rcx, %r8 adcq %r10, %r12 adcq $0, %r13 Ljade_onetimeauth_poly1305_amd64_avx_verify$8: movq %r8, %rax movq %r12, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r13 shrq $2, %r13 negq %r13 xorq %r8, %rax xorq %r12, %rcx andq %r13, %rax andq %r13, %rcx xorq %r8, %rax xorq %r12, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$2 Ljade_onetimeauth_poly1305_amd64_avx_verify$1: movq (%r15), %rbp movq 8(%r15), %r13 movq $1152921487695413247, %rax andq %rax, %rbp movq $1152921487695413244, %rax andq %rax, %r13 movq %r13, %r12 shrq $2, %r12 addq %r13, %r12 addq $16, %r15 movq %rbp, %r8 movq %r13, %r11 movq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 232(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 248(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 264(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 280(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 296(%rsp) movq %r12, %r10 imulq %rbx, %r10 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %r12, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r13, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 224(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 240(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 256(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 272(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 288(%rsp) vpbroadcastq glob_data + 16(%rip), %xmm0 vpmuludq 240(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 32(%rsp) vpmuludq 256(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 48(%rsp) vpmuludq 272(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 64(%rsp) vpmuludq 288(%rsp), %xmm0, %xmm0 vmovdqu %xmm0, 80(%rsp) vpbroadcastq 224(%rsp), %xmm0 vmovdqu %xmm0, 304(%rsp) vpbroadcastq 240(%rsp), %xmm0 vmovdqu %xmm0, 320(%rsp) vpbroadcastq 256(%rsp), %xmm0 vmovdqu %xmm0, 336(%rsp) vpbroadcastq 272(%rsp), %xmm0 vmovdqu %xmm0, 352(%rsp) vpbroadcastq 288(%rsp), %xmm0 vmovdqu %xmm0, 368(%rsp) vpbroadcastq 32(%rsp), %xmm0 vmovdqu %xmm0, 96(%rsp) vpbroadcastq 48(%rsp), %xmm0 vmovdqu %xmm0, 112(%rsp) vpbroadcastq 64(%rsp), %xmm0 vmovdqu %xmm0, 128(%rsp) vpbroadcastq 80(%rsp), %xmm0 vmovdqu %xmm0, 144(%rsp) movq %r12, %r10 imulq %rbx, %r10 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %r12, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r13, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r12, %r9 imulq %rbx, %r9 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r11 addq %rax, %r10 adcq %rdx, %rbx movq %r12, %rax mulq %r11 movq %rdx, %r11 addq %r9, %r11 movq %rax, %r9 movq %r13, %rax mulq %r8 addq %r9, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %rax movq %rbx, %rdx shrq $2, %rdx andq %rbx, %rax addq %rdx, %rax andq $3, %rbx addq %rcx, %rax adcq %r10, %r11 adcq $0, %rbx movq %rax, %rcx andq $67108863, %rcx movq %rcx, 384(%rsp) movq %rax, %rcx shrq $26, %rcx andq $67108863, %rcx movq %rcx, 400(%rsp) shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 416(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 432(%rsp) shrdq $40, %rbx, %r11 movq %r11, 448(%rsp) movq 384(%rsp), %rax movq %rax, 392(%rsp) movq 400(%rsp), %rax movq %rax, 408(%rsp) movq 416(%rsp), %rax movq %rax, 424(%rsp) movq 432(%rsp), %rax movq %rax, 440(%rsp) movq 448(%rsp), %rax movq %rax, 456(%rsp) vpbroadcastq glob_data + 16(%rip), %xmm0 vpmuludq 400(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 160(%rsp) vpmuludq 416(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 176(%rsp) vpmuludq 432(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 192(%rsp) vpmuludq 448(%rsp), %xmm0, %xmm0 vmovdqu %xmm0, 208(%rsp) vpxor %xmm3, %xmm3, %xmm3 vpxor %xmm2, %xmm2, %xmm2 vpxor %xmm1, %xmm1, %xmm1 vpxor %xmm4, %xmm4, %xmm4 vpxor %xmm5, %xmm5, %xmm5 vpbroadcastq glob_data + 8(%rip), %xmm0 vmovdqu %xmm0, (%rsp) vpbroadcastq glob_data + 0(%rip), %xmm0 vmovdqu %xmm0, 16(%rsp) jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$6 Ljade_onetimeauth_poly1305_amd64_avx_verify$7: vmovdqu 384(%rsp), %xmm0 vmovdqu 400(%rsp), %xmm12 vmovdqu 208(%rsp), %xmm14 vpmuludq %xmm0, %xmm3, %xmm7 vpmuludq %xmm12, %xmm3, %xmm8 vpmuludq %xmm0, %xmm2, %xmm13 vpmuludq %xmm12, %xmm2, %xmm6 vpmuludq %xmm0, %xmm1, %xmm9 vpmuludq %xmm12, %xmm1, %xmm10 vpmuludq %xmm0, %xmm4, %xmm11 vpaddq %xmm8, %xmm13, %xmm8 vpmuludq %xmm12, %xmm4, %xmm12 vpaddq %xmm6, %xmm9, %xmm9 vpmuludq %xmm0, %xmm5, %xmm0 vpaddq %xmm10, %xmm11, %xmm10 vpaddq %xmm12, %xmm0, %xmm6 vpmuludq %xmm14, %xmm2, %xmm15 vmovdqu (%rsi), %xmm0 vpmuludq %xmm14, %xmm1, %xmm13 vmovdqu 416(%rsp), %xmm12 vpmuludq %xmm14, %xmm4, %xmm11 vpmuludq %xmm14, %xmm5, %xmm14 vpaddq %xmm15, %xmm7, %xmm7 vmovdqu 16(%rsi), %xmm15 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm11, %xmm9, %xmm13 vpaddq %xmm14, %xmm10, %xmm9 vpmuludq %xmm12, %xmm3, %xmm14 vpunpcklqdq %xmm15, %xmm0, %xmm10 vpmuludq %xmm12, %xmm2, %xmm11 vpunpckhqdq %xmm15, %xmm0, %xmm0 vpmuludq %xmm12, %xmm1, %xmm12 vpaddq %xmm14, %xmm13, %xmm13 vmovdqu 192(%rsp), %xmm14 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm6, %xmm6 vpmuludq %xmm14, %xmm1, %xmm11 vpmuludq %xmm14, %xmm4, %xmm12 vmovdqu %xmm10, %xmm1 vpmuludq %xmm14, %xmm5, %xmm14 vpsrlq $26, %xmm1, %xmm1 vpand (%rsp), %xmm1, %xmm1 vmovdqu 432(%rsp), %xmm15 vpaddq %xmm11, %xmm7, %xmm7 vpaddq %xmm12, %xmm8, %xmm8 vpaddq %xmm13, %xmm14, %xmm12 vpmuludq %xmm15, %xmm3, %xmm11 vmovdqu %xmm0, %xmm13 vmovdqu %xmm12, 496(%rsp) vpmuludq %xmm15, %xmm2, %xmm12 vpsrlq $40, %xmm13, %xmm2 vpor 16(%rsp), %xmm2, %xmm2 vmovdqu 176(%rsp), %xmm13 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm6, %xmm6 vpmuludq %xmm13, %xmm4, %xmm11 vmovdqu %xmm10, %xmm4 vmovdqu %xmm9, 512(%rsp) vpmuludq %xmm13, %xmm5, %xmm9 vpsrlq $52, %xmm4, %xmm4 vpaddq %xmm11, %xmm7, %xmm7 vpaddq %xmm8, %xmm9, %xmm8 vpmuludq 160(%rsp), %xmm5, %xmm5 vpsllq $12, %xmm0, %xmm9 vmovdqu %xmm8, 480(%rsp) vpmuludq 448(%rsp), %xmm3, %xmm3 vpor %xmm9, %xmm4, %xmm4 vmovdqu (%rsp), %xmm8 vpaddq %xmm5, %xmm7, %xmm5 vpaddq %xmm3, %xmm6, %xmm3 vmovdqu %xmm5, 464(%rsp) vmovdqu %xmm3, 528(%rsp) vpand %xmm8, %xmm10, %xmm3 vpand %xmm8, %xmm4, %xmm4 vpsrlq $14, %xmm0, %xmm0 vpand %xmm8, %xmm0, %xmm0 vmovdqu 304(%rsp), %xmm5 vmovdqu 320(%rsp), %xmm9 vmovdqu 144(%rsp), %xmm12 vpmuludq %xmm5, %xmm3, %xmm7 vpmuludq %xmm9, %xmm3, %xmm8 vpmuludq %xmm5, %xmm1, %xmm14 vpmuludq %xmm9, %xmm1, %xmm11 vpmuludq %xmm5, %xmm4, %xmm13 vpmuludq %xmm9, %xmm4, %xmm6 vpaddq 464(%rsp), %xmm7, %xmm7 vpmuludq %xmm5, %xmm0, %xmm10 vpaddq 480(%rsp), %xmm14, %xmm14 vpaddq %xmm8, %xmm14, %xmm8 vpmuludq %xmm9, %xmm0, %xmm14 vpaddq 496(%rsp), %xmm13, %xmm9 vpaddq %xmm11, %xmm9, %xmm9 vpmuludq %xmm5, %xmm2, %xmm5 vpaddq 512(%rsp), %xmm10, %xmm10 vpaddq %xmm6, %xmm10, %xmm10 vpaddq 528(%rsp), %xmm5, %xmm5 vpaddq %xmm14, %xmm5, %xmm5 vpmuludq %xmm12, %xmm1, %xmm15 vmovdqu 32(%rsi), %xmm14 vpmuludq %xmm12, %xmm4, %xmm13 vmovdqu 336(%rsp), %xmm6 vpmuludq %xmm12, %xmm0, %xmm11 vpmuludq %xmm12, %xmm2, %xmm12 vpaddq %xmm15, %xmm7, %xmm7 vmovdqu 48(%rsi), %xmm15 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm10, %xmm10 vpmuludq %xmm6, %xmm3, %xmm11 vpunpcklqdq %xmm15, %xmm14, %xmm12 vpmuludq %xmm6, %xmm1, %xmm13 vpunpckhqdq %xmm15, %xmm14, %xmm14 vpmuludq %xmm6, %xmm4, %xmm6 vpaddq %xmm11, %xmm9, %xmm9 vmovdqu 128(%rsp), %xmm11 vpaddq %xmm13, %xmm10, %xmm10 vpaddq %xmm6, %xmm5, %xmm5 vpmuludq %xmm11, %xmm4, %xmm4 vpmuludq %xmm11, %xmm0, %xmm6 vmovdqu %xmm12, %xmm13 vpmuludq %xmm11, %xmm2, %xmm11 vpsrlq $26, %xmm13, %xmm13 vpand (%rsp), %xmm13, %xmm13 vmovdqu 352(%rsp), %xmm15 vpaddq %xmm4, %xmm7, %xmm4 vpaddq %xmm6, %xmm8, %xmm6 vpaddq %xmm9, %xmm11, %xmm7 vpmuludq %xmm15, %xmm3, %xmm8 vmovdqu %xmm14, %xmm9 vpmuludq %xmm15, %xmm1, %xmm11 vpsrlq $40, %xmm9, %xmm1 vpor 16(%rsp), %xmm1, %xmm1 vmovdqu 112(%rsp), %xmm9 vpaddq %xmm8, %xmm10, %xmm8 vpaddq %xmm11, %xmm5, %xmm5 vpmuludq %xmm9, %xmm0, %xmm0 vmovdqu %xmm12, %xmm10 vpmuludq %xmm9, %xmm2, %xmm11 vpsrlq $52, %xmm10, %xmm9 vpaddq %xmm0, %xmm4, %xmm10 vpaddq %xmm6, %xmm11, %xmm0 vpmuludq 96(%rsp), %xmm2, %xmm6 vpsllq $12, %xmm14, %xmm4 vpmuludq 368(%rsp), %xmm3, %xmm2 vpor %xmm4, %xmm9, %xmm3 vmovdqu (%rsp), %xmm4 vpaddq %xmm6, %xmm10, %xmm6 vpaddq %xmm2, %xmm5, %xmm2 vpand %xmm4, %xmm12, %xmm5 vpaddq %xmm6, %xmm5, %xmm5 vpand %xmm4, %xmm3, %xmm3 vpaddq %xmm7, %xmm3, %xmm3 vpsrlq $14, %xmm14, %xmm6 vpand %xmm4, %xmm6, %xmm6 vpaddq %xmm8, %xmm6, %xmm6 addq $64, %rsi vpaddq %xmm0, %xmm13, %xmm7 vpaddq %xmm2, %xmm1, %xmm1 vpsrlq $26, %xmm5, %xmm8 vpsrlq $26, %xmm6, %xmm9 vpand %xmm4, %xmm5, %xmm0 vpand %xmm4, %xmm6, %xmm2 vpaddq %xmm8, %xmm7, %xmm5 vpaddq %xmm9, %xmm1, %xmm1 vpsrlq $26, %xmm5, %xmm6 vpsrlq $26, %xmm1, %xmm7 vpsllq $2, %xmm7, %xmm8 vpaddq %xmm8, %xmm7, %xmm7 vpand %xmm4, %xmm5, %xmm8 vpand %xmm4, %xmm1, %xmm5 vpaddq %xmm6, %xmm3, %xmm1 vpaddq %xmm7, %xmm0, %xmm0 vpsrlq $26, %xmm1, %xmm6 vpsrlq $26, %xmm0, %xmm7 vpand %xmm4, %xmm1, %xmm1 vpand %xmm4, %xmm0, %xmm3 vpaddq %xmm6, %xmm2, %xmm0 vpaddq %xmm7, %xmm8, %xmm2 vpsrlq $26, %xmm0, %xmm6 vpand %xmm4, %xmm0, %xmm4 vpaddq %xmm6, %xmm5, %xmm5 addq $-64, %r14 Ljade_onetimeauth_poly1305_amd64_avx_verify$6: cmpq $64, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$7 vmovdqu 224(%rsp), %xmm6 vmovdqu 240(%rsp), %xmm11 vmovdqu 80(%rsp), %xmm14 vpmuludq %xmm6, %xmm3, %xmm0 vpmuludq %xmm6, %xmm2, %xmm7 vpmuludq %xmm6, %xmm1, %xmm8 vpmuludq %xmm6, %xmm4, %xmm9 vpmuludq %xmm6, %xmm5, %xmm10 vpmuludq %xmm11, %xmm3, %xmm15 vpmuludq %xmm11, %xmm2, %xmm12 vpmuludq %xmm11, %xmm1, %xmm13 vpmuludq %xmm11, %xmm4, %xmm11 vmovdqu 256(%rsp), %xmm6 vpaddq %xmm15, %xmm7, %xmm7 vpaddq %xmm12, %xmm8, %xmm8 vpaddq %xmm13, %xmm9, %xmm9 vpaddq %xmm11, %xmm10, %xmm10 vpmuludq %xmm14, %xmm2, %xmm11 vpmuludq %xmm14, %xmm1, %xmm12 vpmuludq %xmm14, %xmm4, %xmm13 vpmuludq %xmm14, %xmm5, %xmm14 vmovdqu 64(%rsp), %xmm15 vpaddq %xmm11, %xmm0, %xmm0 vpaddq %xmm12, %xmm7, %xmm7 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm14, %xmm9, %xmm9 vpmuludq %xmm6, %xmm3, %xmm13 vpmuludq %xmm6, %xmm2, %xmm11 vpmuludq %xmm6, %xmm1, %xmm12 vmovdqu 272(%rsp), %xmm6 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm10, %xmm10 vpmuludq %xmm15, %xmm1, %xmm11 vpmuludq %xmm15, %xmm4, %xmm12 vpmuludq %xmm15, %xmm5, %xmm13 vmovdqu 48(%rsp), %xmm1 vpaddq %xmm11, %xmm0, %xmm11 vpaddq %xmm12, %xmm7, %xmm7 vpaddq %xmm8, %xmm13, %xmm0 vpmuludq %xmm6, %xmm3, %xmm8 vpmuludq %xmm6, %xmm2, %xmm6 vpaddq %xmm8, %xmm9, %xmm2 vpaddq %xmm6, %xmm10, %xmm6 vpmuludq %xmm1, %xmm4, %xmm4 vpmuludq %xmm1, %xmm5, %xmm1 vpaddq %xmm4, %xmm11, %xmm4 vpaddq %xmm7, %xmm1, %xmm1 vpmuludq 32(%rsp), %xmm5, %xmm5 vpmuludq 288(%rsp), %xmm3, %xmm3 vpaddq %xmm5, %xmm4, %xmm4 vmovdqu %xmm2, %xmm5 vpaddq %xmm3, %xmm6, %xmm6 vmovdqu (%rsp), %xmm2 vpsrlq $26, %xmm4, %xmm7 vpsrlq $26, %xmm5, %xmm8 vpand %xmm2, %xmm4, %xmm3 vpand %xmm2, %xmm5, %xmm4 vpaddq %xmm7, %xmm1, %xmm1 vpaddq %xmm8, %xmm6, %xmm5 vpsrlq $26, %xmm1, %xmm6 vpsrlq $26, %xmm5, %xmm7 vpsllq $2, %xmm7, %xmm8 vpaddq %xmm8, %xmm7, %xmm7 vpand %xmm2, %xmm1, %xmm8 vpand %xmm2, %xmm5, %xmm1 vpaddq %xmm6, %xmm0, %xmm0 vpaddq %xmm7, %xmm3, %xmm3 vpsrlq $26, %xmm0, %xmm5 vpsrlq $26, %xmm3, %xmm6 vpand %xmm2, %xmm0, %xmm0 vpand %xmm2, %xmm3, %xmm3 vpaddq %xmm5, %xmm4, %xmm4 vpaddq %xmm6, %xmm8, %xmm5 vpsrlq $26, %xmm4, %xmm6 vpand %xmm2, %xmm4, %xmm2 vpaddq %xmm6, %xmm1, %xmm1 vpsllq $26, %xmm5, %xmm4 vpaddq %xmm3, %xmm4, %xmm3 vpsllq $26, %xmm2, %xmm2 vpaddq %xmm0, %xmm2, %xmm0 vpsrldq $8, %xmm1, %xmm2 vpaddq %xmm1, %xmm2, %xmm1 vpunpcklqdq %xmm0, %xmm3, %xmm2 vpunpckhqdq %xmm0, %xmm3, %xmm0 vpaddq %xmm0, %xmm2, %xmm0 vpextrq $0, %xmm0, %rax vpextrq $1, %xmm0, %r8 vpextrq $0, %xmm1, %rcx movq %r8, %r9 shlq $52, %r9 shrq $12, %r8 movq %rcx, %rbx shrq $24, %rbx shlq $40, %rcx addq %rax, %r9 adcq %rcx, %r8 adcq $0, %rbx movq %rbx, %rax movq %rbx, %rcx andq $3, %rbx shrq $2, %rax andq $-4, %rcx addq %rcx, %rax addq %rax, %r9 adcq $0, %r8 adcq $0, %rbx jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$4 Ljade_onetimeauth_poly1305_amd64_avx_verify$5: addq (%rsi), %r9 adcq 8(%rsi), %r8 adcq $1, %rbx movq %r12, %rcx imulq %rbx, %rcx imulq %rbp, %rbx movq %rbp, %rax mulq %r9 movq %rax, %r11 movq %rdx, %r10 movq %rbp, %rax mulq %r8 addq %rax, %r10 adcq %rdx, %rbx movq %r12, %rax mulq %r8 movq %rdx, %r8 addq %rcx, %r8 movq %rax, %rcx movq %r13, %rax mulq %r9 addq %rcx, %r11 adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %r9 movq %rbx, %rax shrq $2, %rax andq %rbx, %r9 addq %rax, %r9 andq $3, %rbx addq %r11, %r9 adcq %r10, %r8 adcq $0, %rbx addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx_verify$4: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$5 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx_verify$3 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %r9 adcq %rax, %r8 adcq $0, %rbx movq %r12, %rsi imulq %rbx, %rsi imulq %rbp, %rbx movq %rbp, %rax mulq %r9 movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r8 addq %rax, %r10 adcq %rdx, %rbx movq %r12, %rax mulq %r8 movq %rdx, %r8 addq %rsi, %r8 movq %rax, %rsi movq %r13, %rax mulq %r9 addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %r9 movq %rbx, %rax shrq $2, %rax andq %rbx, %r9 addq %rax, %r9 andq $3, %rbx addq %rcx, %r9 adcq %r10, %r8 adcq $0, %rbx Ljade_onetimeauth_poly1305_amd64_avx_verify$3: movq %r9, %rax movq %r8, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %rbx shrq $2, %rbx negq %rbx xorq %r9, %rax xorq %r8, %rcx andq %rbx, %rax andq %rbx, %rcx xorq %r9, %rax xorq %r8, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx Ljade_onetimeauth_poly1305_amd64_avx_verify$2: movq %rax, %rdx xorq (%rdi), %rdx xorq 8(%rdi), %rcx orq %rcx, %rdx xorq %rax, %rax subq $1, %rdx adcq $0, %rax addq $-1, %rax movq 544(%rsp), %rbx movq 552(%rsp), %rbp movq 560(%rsp), %r12 movq 568(%rsp), %r13 movq 576(%rsp), %r14 movq 584(%rsp), %r15 movq 592(%rsp), %rsp ret _jade_onetimeauth_poly1305_amd64_avx: jade_onetimeauth_poly1305_amd64_avx: movq %rsp, %rax leaq -600(%rsp), %rsp andq $-16, %rsp movq %rax, 592(%rsp) movq %rbx, 544(%rsp) movq %rbp, 552(%rsp) movq %r12, 560(%rsp) movq %r13, 568(%rsp) movq %r14, 576(%rsp) movq %r15, 584(%rsp) movq %rdx, %r14 movq %rcx, %r15 cmpq $1024, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx$1 movq $0, %rbx movq $0, %r9 movq $0, %rbp movq (%r15), %r13 movq 8(%r15), %r12 movq $1152921487695413247, %rax andq %rax, %r13 movq $1152921487695413244, %rax andq %rax, %r12 movq %r12, %r8 shrq $2, %r8 addq %r12, %r8 addq $16, %r15 jmp Ljade_onetimeauth_poly1305_amd64_avx$9 Ljade_onetimeauth_poly1305_amd64_avx$10: addq (%rsi), %rbx adcq 8(%rsi), %r9 adcq $1, %rbp movq %r8, %r11 imulq %rbp, %r11 imulq %r13, %rbp movq %r13, %rax mulq %rbx movq %rax, %rcx movq %rdx, %r10 movq %r13, %rax mulq %r9 addq %rax, %r10 adcq %rdx, %rbp movq %r8, %rax mulq %r9 movq %rdx, %r9 addq %r11, %r9 movq %rax, %r11 movq %r12, %rax mulq %rbx addq %r11, %rcx adcq %rax, %r10 adcq %rdx, %rbp movq $-4, %rbx movq %rbp, %rax shrq $2, %rax andq %rbp, %rbx addq %rax, %rbx andq $3, %rbp addq %rcx, %rbx adcq %r10, %r9 adcq $0, %rbp addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx$9: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx$10 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx$8 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %rbx adcq %rax, %r9 adcq $0, %rbp movq %r8, %rsi imulq %rbp, %rsi imulq %r13, %rbp movq %r13, %rax mulq %rbx movq %rax, %rcx movq %rdx, %r10 movq %r13, %rax mulq %r9 addq %rax, %r10 adcq %rdx, %rbp movq %r8, %rax mulq %r9 movq %rdx, %r9 addq %rsi, %r9 movq %rax, %rsi movq %r12, %rax mulq %rbx addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %rbp movq $-4, %rbx movq %rbp, %rax shrq $2, %rax andq %rbp, %rbx addq %rax, %rbx andq $3, %rbp addq %rcx, %rbx adcq %r10, %r9 adcq $0, %rbp Ljade_onetimeauth_poly1305_amd64_avx$8: movq %rbx, %rax movq %r9, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %rbp shrq $2, %rbp negq %rbp xorq %rbx, %rax xorq %r9, %rcx andq %rbp, %rax andq %rbp, %rcx xorq %rbx, %rax xorq %r9, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx jmp Ljade_onetimeauth_poly1305_amd64_avx$2 Ljade_onetimeauth_poly1305_amd64_avx$1: movq (%r15), %rbp movq 8(%r15), %r12 movq $1152921487695413247, %rax andq %rax, %rbp movq $1152921487695413244, %rax andq %rax, %r12 movq %r12, %r13 shrq $2, %r13 addq %r12, %r13 addq $16, %r15 movq %rbp, %r8 movq %r12, %r11 movq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 232(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 248(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 264(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 280(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 296(%rsp) movq %r13, %r10 imulq %rbx, %r10 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %r13, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r12, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 224(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 240(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 256(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 272(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 288(%rsp) vpbroadcastq glob_data + 16(%rip), %xmm0 vpmuludq 240(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 32(%rsp) vpmuludq 256(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 48(%rsp) vpmuludq 272(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 64(%rsp) vpmuludq 288(%rsp), %xmm0, %xmm0 vmovdqu %xmm0, 80(%rsp) vpbroadcastq 224(%rsp), %xmm0 vmovdqu %xmm0, 304(%rsp) vpbroadcastq 240(%rsp), %xmm0 vmovdqu %xmm0, 320(%rsp) vpbroadcastq 256(%rsp), %xmm0 vmovdqu %xmm0, 336(%rsp) vpbroadcastq 272(%rsp), %xmm0 vmovdqu %xmm0, 352(%rsp) vpbroadcastq 288(%rsp), %xmm0 vmovdqu %xmm0, 368(%rsp) vpbroadcastq 32(%rsp), %xmm0 vmovdqu %xmm0, 96(%rsp) vpbroadcastq 48(%rsp), %xmm0 vmovdqu %xmm0, 112(%rsp) vpbroadcastq 64(%rsp), %xmm0 vmovdqu %xmm0, 128(%rsp) vpbroadcastq 80(%rsp), %xmm0 vmovdqu %xmm0, 144(%rsp) movq %r13, %r10 imulq %rbx, %r10 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %r13, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r12, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r13, %r9 imulq %rbx, %r9 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r11 addq %rax, %r10 adcq %rdx, %rbx movq %r13, %rax mulq %r11 movq %rdx, %r11 addq %r9, %r11 movq %rax, %r9 movq %r12, %rax mulq %r8 addq %r9, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %rax movq %rbx, %rdx shrq $2, %rdx andq %rbx, %rax addq %rdx, %rax andq $3, %rbx addq %rcx, %rax adcq %r10, %r11 adcq $0, %rbx movq %rax, %rcx andq $67108863, %rcx movq %rcx, 384(%rsp) movq %rax, %rcx shrq $26, %rcx andq $67108863, %rcx movq %rcx, 400(%rsp) shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 416(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 432(%rsp) shrdq $40, %rbx, %r11 movq %r11, 448(%rsp) movq 384(%rsp), %rax movq %rax, 392(%rsp) movq 400(%rsp), %rax movq %rax, 408(%rsp) movq 416(%rsp), %rax movq %rax, 424(%rsp) movq 432(%rsp), %rax movq %rax, 440(%rsp) movq 448(%rsp), %rax movq %rax, 456(%rsp) vpbroadcastq glob_data + 16(%rip), %xmm0 vpmuludq 400(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 160(%rsp) vpmuludq 416(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 176(%rsp) vpmuludq 432(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 192(%rsp) vpmuludq 448(%rsp), %xmm0, %xmm0 vmovdqu %xmm0, 208(%rsp) vpxor %xmm3, %xmm3, %xmm3 vpxor %xmm2, %xmm2, %xmm2 vpxor %xmm1, %xmm1, %xmm1 vpxor %xmm4, %xmm4, %xmm4 vpxor %xmm5, %xmm5, %xmm5 vpbroadcastq glob_data + 8(%rip), %xmm0 vmovdqu %xmm0, (%rsp) vpbroadcastq glob_data + 0(%rip), %xmm0 vmovdqu %xmm0, 16(%rsp) jmp Ljade_onetimeauth_poly1305_amd64_avx$6 Ljade_onetimeauth_poly1305_amd64_avx$7: vmovdqu 384(%rsp), %xmm0 vmovdqu 400(%rsp), %xmm12 vmovdqu 208(%rsp), %xmm14 vpmuludq %xmm0, %xmm3, %xmm7 vpmuludq %xmm12, %xmm3, %xmm8 vpmuludq %xmm0, %xmm2, %xmm13 vpmuludq %xmm12, %xmm2, %xmm6 vpmuludq %xmm0, %xmm1, %xmm9 vpmuludq %xmm12, %xmm1, %xmm10 vpmuludq %xmm0, %xmm4, %xmm11 vpaddq %xmm8, %xmm13, %xmm8 vpmuludq %xmm12, %xmm4, %xmm12 vpaddq %xmm6, %xmm9, %xmm9 vpmuludq %xmm0, %xmm5, %xmm0 vpaddq %xmm10, %xmm11, %xmm10 vpaddq %xmm12, %xmm0, %xmm6 vpmuludq %xmm14, %xmm2, %xmm15 vmovdqu (%rsi), %xmm0 vpmuludq %xmm14, %xmm1, %xmm13 vmovdqu 416(%rsp), %xmm12 vpmuludq %xmm14, %xmm4, %xmm11 vpmuludq %xmm14, %xmm5, %xmm14 vpaddq %xmm15, %xmm7, %xmm7 vmovdqu 16(%rsi), %xmm15 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm11, %xmm9, %xmm13 vpaddq %xmm14, %xmm10, %xmm9 vpmuludq %xmm12, %xmm3, %xmm14 vpunpcklqdq %xmm15, %xmm0, %xmm10 vpmuludq %xmm12, %xmm2, %xmm11 vpunpckhqdq %xmm15, %xmm0, %xmm0 vpmuludq %xmm12, %xmm1, %xmm12 vpaddq %xmm14, %xmm13, %xmm13 vmovdqu 192(%rsp), %xmm14 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm6, %xmm6 vpmuludq %xmm14, %xmm1, %xmm11 vpmuludq %xmm14, %xmm4, %xmm12 vmovdqu %xmm10, %xmm1 vpmuludq %xmm14, %xmm5, %xmm14 vpsrlq $26, %xmm1, %xmm1 vpand (%rsp), %xmm1, %xmm1 vmovdqu 432(%rsp), %xmm15 vpaddq %xmm11, %xmm7, %xmm7 vpaddq %xmm12, %xmm8, %xmm8 vpaddq %xmm13, %xmm14, %xmm12 vpmuludq %xmm15, %xmm3, %xmm11 vmovdqu %xmm0, %xmm13 vmovdqu %xmm12, 496(%rsp) vpmuludq %xmm15, %xmm2, %xmm12 vpsrlq $40, %xmm13, %xmm2 vpor 16(%rsp), %xmm2, %xmm2 vmovdqu 176(%rsp), %xmm13 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm6, %xmm6 vpmuludq %xmm13, %xmm4, %xmm11 vmovdqu %xmm10, %xmm4 vmovdqu %xmm9, 512(%rsp) vpmuludq %xmm13, %xmm5, %xmm9 vpsrlq $52, %xmm4, %xmm4 vpaddq %xmm11, %xmm7, %xmm7 vpaddq %xmm8, %xmm9, %xmm8 vpmuludq 160(%rsp), %xmm5, %xmm5 vpsllq $12, %xmm0, %xmm9 vmovdqu %xmm8, 480(%rsp) vpmuludq 448(%rsp), %xmm3, %xmm3 vpor %xmm9, %xmm4, %xmm4 vmovdqu (%rsp), %xmm8 vpaddq %xmm5, %xmm7, %xmm5 vpaddq %xmm3, %xmm6, %xmm3 vmovdqu %xmm5, 464(%rsp) vmovdqu %xmm3, 528(%rsp) vpand %xmm8, %xmm10, %xmm3 vpand %xmm8, %xmm4, %xmm4 vpsrlq $14, %xmm0, %xmm0 vpand %xmm8, %xmm0, %xmm0 vmovdqu 304(%rsp), %xmm5 vmovdqu 320(%rsp), %xmm9 vmovdqu 144(%rsp), %xmm12 vpmuludq %xmm5, %xmm3, %xmm7 vpmuludq %xmm9, %xmm3, %xmm8 vpmuludq %xmm5, %xmm1, %xmm14 vpmuludq %xmm9, %xmm1, %xmm11 vpmuludq %xmm5, %xmm4, %xmm13 vpmuludq %xmm9, %xmm4, %xmm6 vpaddq 464(%rsp), %xmm7, %xmm7 vpmuludq %xmm5, %xmm0, %xmm10 vpaddq 480(%rsp), %xmm14, %xmm14 vpaddq %xmm8, %xmm14, %xmm8 vpmuludq %xmm9, %xmm0, %xmm14 vpaddq 496(%rsp), %xmm13, %xmm9 vpaddq %xmm11, %xmm9, %xmm9 vpmuludq %xmm5, %xmm2, %xmm5 vpaddq 512(%rsp), %xmm10, %xmm10 vpaddq %xmm6, %xmm10, %xmm10 vpaddq 528(%rsp), %xmm5, %xmm5 vpaddq %xmm14, %xmm5, %xmm5 vpmuludq %xmm12, %xmm1, %xmm15 vmovdqu 32(%rsi), %xmm14 vpmuludq %xmm12, %xmm4, %xmm13 vmovdqu 336(%rsp), %xmm6 vpmuludq %xmm12, %xmm0, %xmm11 vpmuludq %xmm12, %xmm2, %xmm12 vpaddq %xmm15, %xmm7, %xmm7 vmovdqu 48(%rsi), %xmm15 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm10, %xmm10 vpmuludq %xmm6, %xmm3, %xmm11 vpunpcklqdq %xmm15, %xmm14, %xmm12 vpmuludq %xmm6, %xmm1, %xmm13 vpunpckhqdq %xmm15, %xmm14, %xmm14 vpmuludq %xmm6, %xmm4, %xmm6 vpaddq %xmm11, %xmm9, %xmm9 vmovdqu 128(%rsp), %xmm11 vpaddq %xmm13, %xmm10, %xmm10 vpaddq %xmm6, %xmm5, %xmm5 vpmuludq %xmm11, %xmm4, %xmm4 vpmuludq %xmm11, %xmm0, %xmm6 vmovdqu %xmm12, %xmm13 vpmuludq %xmm11, %xmm2, %xmm11 vpsrlq $26, %xmm13, %xmm13 vpand (%rsp), %xmm13, %xmm13 vmovdqu 352(%rsp), %xmm15 vpaddq %xmm4, %xmm7, %xmm4 vpaddq %xmm6, %xmm8, %xmm6 vpaddq %xmm9, %xmm11, %xmm7 vpmuludq %xmm15, %xmm3, %xmm8 vmovdqu %xmm14, %xmm9 vpmuludq %xmm15, %xmm1, %xmm11 vpsrlq $40, %xmm9, %xmm1 vpor 16(%rsp), %xmm1, %xmm1 vmovdqu 112(%rsp), %xmm9 vpaddq %xmm8, %xmm10, %xmm8 vpaddq %xmm11, %xmm5, %xmm5 vpmuludq %xmm9, %xmm0, %xmm0 vmovdqu %xmm12, %xmm10 vpmuludq %xmm9, %xmm2, %xmm11 vpsrlq $52, %xmm10, %xmm9 vpaddq %xmm0, %xmm4, %xmm10 vpaddq %xmm6, %xmm11, %xmm0 vpmuludq 96(%rsp), %xmm2, %xmm6 vpsllq $12, %xmm14, %xmm4 vpmuludq 368(%rsp), %xmm3, %xmm2 vpor %xmm4, %xmm9, %xmm3 vmovdqu (%rsp), %xmm4 vpaddq %xmm6, %xmm10, %xmm6 vpaddq %xmm2, %xmm5, %xmm2 vpand %xmm4, %xmm12, %xmm5 vpaddq %xmm6, %xmm5, %xmm5 vpand %xmm4, %xmm3, %xmm3 vpaddq %xmm7, %xmm3, %xmm3 vpsrlq $14, %xmm14, %xmm6 vpand %xmm4, %xmm6, %xmm6 vpaddq %xmm8, %xmm6, %xmm6 addq $64, %rsi vpaddq %xmm0, %xmm13, %xmm7 vpaddq %xmm2, %xmm1, %xmm1 vpsrlq $26, %xmm5, %xmm8 vpsrlq $26, %xmm6, %xmm9 vpand %xmm4, %xmm5, %xmm0 vpand %xmm4, %xmm6, %xmm2 vpaddq %xmm8, %xmm7, %xmm5 vpaddq %xmm9, %xmm1, %xmm1 vpsrlq $26, %xmm5, %xmm6 vpsrlq $26, %xmm1, %xmm7 vpsllq $2, %xmm7, %xmm8 vpaddq %xmm8, %xmm7, %xmm7 vpand %xmm4, %xmm5, %xmm8 vpand %xmm4, %xmm1, %xmm5 vpaddq %xmm6, %xmm3, %xmm1 vpaddq %xmm7, %xmm0, %xmm0 vpsrlq $26, %xmm1, %xmm6 vpsrlq $26, %xmm0, %xmm7 vpand %xmm4, %xmm1, %xmm1 vpand %xmm4, %xmm0, %xmm3 vpaddq %xmm6, %xmm2, %xmm0 vpaddq %xmm7, %xmm8, %xmm2 vpsrlq $26, %xmm0, %xmm6 vpand %xmm4, %xmm0, %xmm4 vpaddq %xmm6, %xmm5, %xmm5 addq $-64, %r14 Ljade_onetimeauth_poly1305_amd64_avx$6: cmpq $64, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx$7 vmovdqu 224(%rsp), %xmm6 vmovdqu 240(%rsp), %xmm11 vmovdqu 80(%rsp), %xmm14 vpmuludq %xmm6, %xmm3, %xmm0 vpmuludq %xmm6, %xmm2, %xmm7 vpmuludq %xmm6, %xmm1, %xmm8 vpmuludq %xmm6, %xmm4, %xmm9 vpmuludq %xmm6, %xmm5, %xmm10 vpmuludq %xmm11, %xmm3, %xmm15 vpmuludq %xmm11, %xmm2, %xmm12 vpmuludq %xmm11, %xmm1, %xmm13 vpmuludq %xmm11, %xmm4, %xmm11 vmovdqu 256(%rsp), %xmm6 vpaddq %xmm15, %xmm7, %xmm7 vpaddq %xmm12, %xmm8, %xmm8 vpaddq %xmm13, %xmm9, %xmm9 vpaddq %xmm11, %xmm10, %xmm10 vpmuludq %xmm14, %xmm2, %xmm11 vpmuludq %xmm14, %xmm1, %xmm12 vpmuludq %xmm14, %xmm4, %xmm13 vpmuludq %xmm14, %xmm5, %xmm14 vmovdqu 64(%rsp), %xmm15 vpaddq %xmm11, %xmm0, %xmm0 vpaddq %xmm12, %xmm7, %xmm7 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm14, %xmm9, %xmm9 vpmuludq %xmm6, %xmm3, %xmm13 vpmuludq %xmm6, %xmm2, %xmm11 vpmuludq %xmm6, %xmm1, %xmm12 vmovdqu 272(%rsp), %xmm6 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm10, %xmm10 vpmuludq %xmm15, %xmm1, %xmm11 vpmuludq %xmm15, %xmm4, %xmm12 vpmuludq %xmm15, %xmm5, %xmm13 vmovdqu 48(%rsp), %xmm1 vpaddq %xmm11, %xmm0, %xmm11 vpaddq %xmm12, %xmm7, %xmm7 vpaddq %xmm8, %xmm13, %xmm0 vpmuludq %xmm6, %xmm3, %xmm8 vpmuludq %xmm6, %xmm2, %xmm6 vpaddq %xmm8, %xmm9, %xmm2 vpaddq %xmm6, %xmm10, %xmm6 vpmuludq %xmm1, %xmm4, %xmm4 vpmuludq %xmm1, %xmm5, %xmm1 vpaddq %xmm4, %xmm11, %xmm4 vpaddq %xmm7, %xmm1, %xmm1 vpmuludq 32(%rsp), %xmm5, %xmm5 vpmuludq 288(%rsp), %xmm3, %xmm3 vpaddq %xmm5, %xmm4, %xmm4 vmovdqu %xmm2, %xmm5 vpaddq %xmm3, %xmm6, %xmm6 vmovdqu (%rsp), %xmm2 vpsrlq $26, %xmm4, %xmm7 vpsrlq $26, %xmm5, %xmm8 vpand %xmm2, %xmm4, %xmm3 vpand %xmm2, %xmm5, %xmm4 vpaddq %xmm7, %xmm1, %xmm1 vpaddq %xmm8, %xmm6, %xmm5 vpsrlq $26, %xmm1, %xmm6 vpsrlq $26, %xmm5, %xmm7 vpsllq $2, %xmm7, %xmm8 vpaddq %xmm8, %xmm7, %xmm7 vpand %xmm2, %xmm1, %xmm8 vpand %xmm2, %xmm5, %xmm1 vpaddq %xmm6, %xmm0, %xmm0 vpaddq %xmm7, %xmm3, %xmm3 vpsrlq $26, %xmm0, %xmm5 vpsrlq $26, %xmm3, %xmm6 vpand %xmm2, %xmm0, %xmm0 vpand %xmm2, %xmm3, %xmm3 vpaddq %xmm5, %xmm4, %xmm4 vpaddq %xmm6, %xmm8, %xmm5 vpsrlq $26, %xmm4, %xmm6 vpand %xmm2, %xmm4, %xmm2 vpaddq %xmm6, %xmm1, %xmm1 vpsllq $26, %xmm5, %xmm4 vpaddq %xmm3, %xmm4, %xmm3 vpsllq $26, %xmm2, %xmm2 vpaddq %xmm0, %xmm2, %xmm0 vpsrldq $8, %xmm1, %xmm2 vpaddq %xmm1, %xmm2, %xmm1 vpunpcklqdq %xmm0, %xmm3, %xmm2 vpunpckhqdq %xmm0, %xmm3, %xmm0 vpaddq %xmm0, %xmm2, %xmm0 vpextrq $0, %xmm0, %rax vpextrq $1, %xmm0, %rbx vpextrq $0, %xmm1, %rcx movq %rbx, %r11 shlq $52, %r11 shrq $12, %rbx movq %rcx, %r8 shrq $24, %r8 shlq $40, %rcx addq %rax, %r11 adcq %rcx, %rbx adcq $0, %r8 movq %r8, %rax movq %r8, %rcx andq $3, %r8 shrq $2, %rax andq $-4, %rcx addq %rcx, %rax addq %rax, %r11 adcq $0, %rbx adcq $0, %r8 jmp Ljade_onetimeauth_poly1305_amd64_avx$4 Ljade_onetimeauth_poly1305_amd64_avx$5: addq (%rsi), %r11 adcq 8(%rsi), %rbx adcq $1, %r8 movq %r13, %r9 imulq %r8, %r9 imulq %rbp, %r8 movq %rbp, %rax mulq %r11 movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %rbx addq %rax, %r10 adcq %rdx, %r8 movq %r13, %rax mulq %rbx movq %rdx, %rbx addq %r9, %rbx movq %rax, %r9 movq %r12, %rax mulq %r11 addq %r9, %rcx adcq %rax, %r10 adcq %rdx, %r8 movq $-4, %r11 movq %r8, %rax shrq $2, %rax andq %r8, %r11 addq %rax, %r11 andq $3, %r8 addq %rcx, %r11 adcq %r10, %rbx adcq $0, %r8 addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx$4: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx$5 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx$3 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r9 addq $-1, %r9 movq %rax, %r10 andq %r9, %r10 xorq %r10, %rcx xorq %r10, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r9 andq %rax, %r9 orq %rdx, %r9 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r9, %r11 adcq %rax, %rbx adcq $0, %r8 movq %r13, %rsi imulq %r8, %rsi imulq %rbp, %r8 movq %rbp, %rax mulq %r11 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %rbx addq %rax, %r9 adcq %rdx, %r8 movq %r13, %rax mulq %rbx movq %rdx, %rbx addq %rsi, %rbx movq %rax, %rsi movq %r12, %rax mulq %r11 addq %rsi, %rcx adcq %rax, %r9 adcq %rdx, %r8 movq $-4, %r11 movq %r8, %rax shrq $2, %rax andq %r8, %r11 addq %rax, %r11 andq $3, %r8 addq %rcx, %r11 adcq %r9, %rbx adcq $0, %r8 Ljade_onetimeauth_poly1305_amd64_avx$3: movq %r11, %rax movq %rbx, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r8 shrq $2, %r8 negq %r8 xorq %r11, %rax xorq %rbx, %rcx andq %r8, %rax andq %r8, %rcx xorq %r11, %rax xorq %rbx, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx Ljade_onetimeauth_poly1305_amd64_avx$2: movq %rax, (%rdi) movq %rcx, 8(%rdi) xorq %rax, %rax movq 544(%rsp), %rbx movq 552(%rsp), %rbp movq 560(%rsp), %r12 movq 568(%rsp), %r13 movq 576(%rsp), %r14 movq 584(%rsp), %r15 movq 592(%rsp), %rsp ret .data .p2align 5 _glob_data: glob_data: .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte -1 .byte -1 .byte -1 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0
usenix-security-verdict/verdict
34,208
deps/libcrux/sys/libjade/jazz/sha3_512_avx2.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_512_amd64_avx2 .globl jade_hash_sha3_512_amd64_avx2 _jade_hash_sha3_512_amd64_avx2: jade_hash_sha3_512_amd64_avx2: movq %rsp, %rax leaq -40(%rsp), %rsp andq $-32, %rsp movq %rax, 32(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq $64, %r9 movb $6, %al movq $72, %rcx leaq -224(%rsp), %rsp leaq Ljade_hash_sha3_512_amd64_avx2$1(%rip), %r10 jmp L_keccak1600_avx2$1 Ljade_hash_sha3_512_amd64_avx2$1: leaq 224(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %rsp ret L_keccak1600_avx2$1: vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm5, %ymm5, %ymm5 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm2, %ymm2, %ymm2 leaq glob_data + 1152(%rip), %r8 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) jmp L_keccak1600_avx2$16 L_keccak1600_avx2$17: movq %rcx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$19 L_keccak1600_avx2$20: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$19: cmpq %r11, %rbx jb L_keccak1600_avx2$20 movq (%rsp), %r11 movq %r11, 8(%rsp) movq %r11, 16(%rsp) movq %r11, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 addq %rcx, %rsi subq %rcx, %rdx leaq glob_data + 384(%rip), %r11 movq $0, %rbx leaq glob_data + 192(%rip), %rbp leaq glob_data + 0(%rip), %r12 movq $24, %r13 L_keccak1600_avx2$18: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rbp), %ymm4, %ymm7 vpsrlvq (%r12), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rbp), %ymm0, %ymm7 vpsrlvq 64(%r12), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rbp), %ymm5, %ymm7 vpsrlvq 96(%r12), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rbp), %ymm1, %ymm5 vpsrlvq 128(%r12), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rbp), %ymm2, %ymm0 vpsrlvq 160(%r12), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rbp), %ymm0, %ymm1 vpsrlvq 32(%r12), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%r11,%rbx), %ymm6, %ymm6 addq $32, %rbx decq %r13 jne L_keccak1600_avx2$18 L_keccak1600_avx2$16: cmpq %rcx, %rdx jnb L_keccak1600_avx2$17 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) movq %rdx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$14 L_keccak1600_avx2$15: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$14: cmpq %r11, %rbx jb L_keccak1600_avx2$15 movq (%r8,%rbx,8), %r11 shlq $3, %r11 shlq $3, %rbx jmp L_keccak1600_avx2$12 L_keccak1600_avx2$13: movb (%rsi,%rbx), %bpl movb %bpl, (%rsp,%r11) incq %rbx incq %r11 L_keccak1600_avx2$12: cmpq %rdx, %rbx jb L_keccak1600_avx2$13 movb %al, (%rsp,%r11) movq %rcx, %rax addq $-1, %rax shrq $3, %rax movq (%r8,%rax,8), %rax shlq $3, %rax movq %rcx, %rdx addq $-1, %rdx andq $7, %rdx addq %rdx, %rax xorb $-128, (%rsp,%rax) movq (%rsp), %rax movq %rax, 8(%rsp) movq %rax, 16(%rsp) movq %rax, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 leaq glob_data + 1152(%rip), %rax jmp L_keccak1600_avx2$7 L_keccak1600_avx2$8: leaq glob_data + 384(%rip), %rdx movq $0, %rsi leaq glob_data + 192(%rip), %r8 leaq glob_data + 0(%rip), %r11 movq $24, %rbx L_keccak1600_avx2$11: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r8), %ymm4, %ymm7 vpsrlvq (%r11), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%r8), %ymm0, %ymm7 vpsrlvq 64(%r11), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%r8), %ymm5, %ymm7 vpsrlvq 96(%r11), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%r8), %ymm1, %ymm5 vpsrlvq 128(%r11), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%r8), %ymm2, %ymm0 vpsrlvq 160(%r11), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%r8), %ymm0, %ymm1 vpsrlvq 32(%r11), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rdx,%rsi), %ymm6, %ymm6 addq $32, %rsi decq %rbx jne L_keccak1600_avx2$11 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_avx2$9 L_keccak1600_avx2$10: movq (%rax,%rsi,8), %r8 movq (%rsp,%r8,8), %r8 movq %r8, (%rdi,%rsi,8) incq %rsi L_keccak1600_avx2$9: cmpq %rdx, %rsi jb L_keccak1600_avx2$10 addq %rcx, %rdi subq %rcx, %r9 L_keccak1600_avx2$7: cmpq %rcx, %r9 jnbe L_keccak1600_avx2$8 leaq glob_data + 384(%rip), %rcx movq $0, %rdx leaq glob_data + 192(%rip), %rsi leaq glob_data + 0(%rip), %r8 movq $24, %r11 L_keccak1600_avx2$6: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm4, %ymm7 vpsrlvq (%r8), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rsi), %ymm0, %ymm7 vpsrlvq 64(%r8), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rsi), %ymm5, %ymm7 vpsrlvq 96(%r8), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rsi), %ymm1, %ymm5 vpsrlvq 128(%r8), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rsi), %ymm2, %ymm0 vpsrlvq 160(%r8), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rsi), %ymm0, %ymm1 vpsrlvq 32(%r8), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r11 jne L_keccak1600_avx2$6 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %r9, %rcx shrq $3, %rcx movq $0, %rdx jmp L_keccak1600_avx2$4 L_keccak1600_avx2$5: movq (%rax,%rdx,8), %rsi movq (%rsp,%rsi,8), %rsi movq %rsi, (%rdi,%rdx,8) incq %rdx L_keccak1600_avx2$4: cmpq %rcx, %rdx jb L_keccak1600_avx2$5 movq (%rax,%rdx,8), %rax shlq $3, %rdx shlq $3, %rax jmp L_keccak1600_avx2$2 L_keccak1600_avx2$3: movb (%rsp,%rax), %cl movb %cl, (%rdi,%rdx) incq %rdx incq %rax L_keccak1600_avx2$2: cmpq %r9, %rdx jb L_keccak1600_avx2$3 jmp *%r10 .data .p2align 5 _glob_data: glob_data: .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 46 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 63 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 37 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 58 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 54 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 49 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 50 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 41 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 45 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 55 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 24 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 13 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 16 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 22 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 11 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 12 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 26 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 17 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0
usenix-security-verdict/verdict
31,350
deps/libcrux/sys/libjade/jazz/sha3_256_ref.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_256_amd64_ref .globl jade_hash_sha3_256_amd64_ref _jade_hash_sha3_256_amd64_ref: jade_hash_sha3_256_amd64_ref: movq %rsp, %rax leaq -48(%rsp), %rsp andq $-8, %rsp movq %rax, 40(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq %r14, 32(%rsp) movq $32, %rcx movb $6, %r8b movq $136, %rax leaq -448(%rsp), %rsp call L_keccak1600_ref$1 Ljade_hash_sha3_256_amd64_ref$1: leaq 448(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %r14 movq 40(%rsp), %rsp ret L_keccak1600_ref$1: movq %rdi, 8(%rsp) movq %rcx, 16(%rsp) movb %r8b, 448(%rsp) xorq %rcx, %rcx movq %rcx, 48(%rsp) movq %rcx, 56(%rsp) movq %rcx, 64(%rsp) movq %rcx, 72(%rsp) movq %rcx, 80(%rsp) movq %rcx, 88(%rsp) movq %rcx, 96(%rsp) movq %rcx, 104(%rsp) movq %rcx, 112(%rsp) movq %rcx, 120(%rsp) movq %rcx, 128(%rsp) movq %rcx, 136(%rsp) movq %rcx, 144(%rsp) movq %rcx, 152(%rsp) movq %rcx, 160(%rsp) movq %rcx, 168(%rsp) movq %rcx, 176(%rsp) movq %rcx, 184(%rsp) movq %rcx, 192(%rsp) movq %rcx, 200(%rsp) movq %rcx, 208(%rsp) movq %rcx, 216(%rsp) movq %rcx, 224(%rsp) movq %rcx, 232(%rsp) movq %rcx, 240(%rsp) jmp L_keccak1600_ref$16 L_keccak1600_ref$17: movq %rax, %rcx shrq $3, %rcx movq $0, %rdi jmp L_keccak1600_ref$19 L_keccak1600_ref$20: movq (%rsi,%rdi,8), %r8 xorq %r8, 48(%rsp,%rdi,8) incq %rdi L_keccak1600_ref$19: cmpq %rcx, %rdi jb L_keccak1600_ref$20 addq %rax, %rsi subq %rax, %rdx movq %rsi, 24(%rsp) movq %rdx, 32(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$18: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$18 movq 24(%rsp), %rsi movq 32(%rsp), %rdx movq 40(%rsp), %rax L_keccak1600_ref$16: cmpq %rax, %rdx jnb L_keccak1600_ref$17 movb 448(%rsp), %cl movq %rdx, %rdi shrq $3, %rdi movq $0, %r8 jmp L_keccak1600_ref$14 L_keccak1600_ref$15: movq (%rsi,%r8,8), %r9 xorq %r9, 48(%rsp,%r8,8) incq %r8 L_keccak1600_ref$14: cmpq %rdi, %r8 jb L_keccak1600_ref$15 shlq $3, %r8 jmp L_keccak1600_ref$12 L_keccak1600_ref$13: movb (%rsi,%r8), %dil xorb %dil, 48(%rsp,%r8) incq %r8 L_keccak1600_ref$12: cmpq %rdx, %r8 jb L_keccak1600_ref$13 xorb %cl, 48(%rsp,%r8) movq %rax, %rcx addq $-1, %rcx xorb $-128, 48(%rsp,%rcx) movq 16(%rsp), %rdx jmp L_keccak1600_ref$7 L_keccak1600_ref$8: movq %rdx, 16(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$11: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$11 movq 8(%rsp), %rcx movq 16(%rsp), %rdx movq 40(%rsp), %rax movq %rax, %rsi shrq $3, %rsi movq $0, %rdi jmp L_keccak1600_ref$9 L_keccak1600_ref$10: movq 48(%rsp,%rdi,8), %r8 movq %r8, (%rcx,%rdi,8) incq %rdi L_keccak1600_ref$9: cmpq %rsi, %rdi jb L_keccak1600_ref$10 addq %rax, %rcx subq %rax, %rdx movq %rcx, 8(%rsp) L_keccak1600_ref$7: cmpq %rax, %rdx jnbe L_keccak1600_ref$8 movq %rdx, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$6: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$6 movq 8(%rsp), %rax movq 40(%rsp), %rcx movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_ref$4 L_keccak1600_ref$5: movq 48(%rsp,%rsi,8), %rdi movq %rdi, (%rax,%rsi,8) incq %rsi L_keccak1600_ref$4: cmpq %rdx, %rsi jb L_keccak1600_ref$5 shlq $3, %rsi jmp L_keccak1600_ref$2 L_keccak1600_ref$3: movb 48(%rsp,%rsi), %dl movb %dl, (%rax,%rsi) incq %rsi L_keccak1600_ref$2: cmpq %rcx, %rsi jb L_keccak1600_ref$3 ret .data .p2align 5 _glob_data: glob_data: .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128
usenix-security-verdict/verdict
18,425
deps/libcrux/sys/libjade/jazz/chacha20_ref.s
.att_syntax .text .p2align 5 .globl _jade_stream_chacha_chacha20_ietf_amd64_ref .globl jade_stream_chacha_chacha20_ietf_amd64_ref .globl _jade_stream_chacha_chacha20_ietf_amd64_ref_xor .globl jade_stream_chacha_chacha20_ietf_amd64_ref_xor _jade_stream_chacha_chacha20_ietf_amd64_ref: jade_stream_chacha_chacha20_ietf_amd64_ref: movq %rsp, %rax leaq -152(%rsp), %rsp andq $-8, %rsp movq %rax, 144(%rsp) movq %rbx, 96(%rsp) movq %rbp, 104(%rsp) movq %r12, 112(%rsp) movq %r13, 120(%rsp) movq %r14, 128(%rsp) movq %r15, 136(%rsp) movq %rdi, (%rsp) movq %rsi, 8(%rsp) movl $1634760805, 16(%rsp) movl $857760878, 20(%rsp) movl $2036477234, 24(%rsp) movl $1797285236, 28(%rsp) movl (%rcx), %eax movl %eax, 32(%rsp) movl 4(%rcx), %eax movl %eax, 36(%rsp) movl 8(%rcx), %eax movl %eax, 40(%rsp) movl 12(%rcx), %eax movl %eax, 44(%rsp) movl 16(%rcx), %eax movl %eax, 48(%rsp) movl 20(%rcx), %eax movl %eax, 52(%rsp) movl 24(%rcx), %eax movl %eax, 56(%rsp) movl 28(%rcx), %eax movl %eax, 60(%rsp) movl $0, 64(%rsp) movl (%rdx), %eax movl %eax, 68(%rsp) movl 4(%rdx), %eax movl %eax, 72(%rsp) movl 8(%rdx), %eax movl %eax, 76(%rsp) jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref$7 Ljade_stream_chacha_chacha20_ietf_amd64_ref$8: movl 76(%rsp), %eax movl %eax, 80(%rsp) movl 16(%rsp), %r14d movl 20(%rsp), %r13d movl 24(%rsp), %eax movl 28(%rsp), %r15d movl 32(%rsp), %ecx movl 36(%rsp), %edx movl 40(%rsp), %esi movl 44(%rsp), %edi movl 48(%rsp), %r8d movl 52(%rsp), %r9d movl 56(%rsp), %r10d movl 60(%rsp), %r11d movl 64(%rsp), %ebx movl 68(%rsp), %ebp movl 72(%rsp), %r12d movl %r12d, 84(%rsp) movl $10, %r12d Ljade_stream_chacha_chacha20_ietf_amd64_ref$9: movl %r12d, 88(%rsp) movl 84(%rsp), %r12d addl %ecx, %r14d addl %esi, %eax xorl %r14d, %ebx xorl %eax, %r12d roll $16, %ebx roll $16, %r12d addl %ebx, %r8d addl %r12d, %r10d xorl %r8d, %ecx xorl %r10d, %esi roll $12, %ecx roll $12, %esi addl %ecx, %r14d addl %esi, %eax xorl %r14d, %ebx xorl %eax, %r12d roll $8, %ebx roll $8, %r12d addl %ebx, %r8d addl %r12d, %r10d xorl %r8d, %ecx xorl %r10d, %esi roll $7, %ecx roll $7, %esi movl %r12d, 92(%rsp) movl 80(%rsp), %r12d addl %edx, %r13d addl %edi, %r15d xorl %r13d, %ebp xorl %r15d, %r12d roll $16, %ebp roll $16, %r12d addl %ebp, %r9d addl %r12d, %r11d xorl %r9d, %edx xorl %r11d, %edi roll $12, %edx roll $12, %edi addl %edx, %r13d addl %edi, %r15d xorl %r13d, %ebp xorl %r15d, %r12d roll $8, %ebp roll $8, %r12d addl %ebp, %r9d addl %r12d, %r11d xorl %r9d, %edx xorl %r11d, %edi roll $7, %edx roll $7, %edi addl %esi, %r13d addl %edx, %r14d xorl %r13d, %ebx xorl %r14d, %r12d roll $16, %ebx roll $16, %r12d addl %ebx, %r11d addl %r12d, %r10d xorl %r11d, %esi xorl %r10d, %edx roll $12, %esi roll $12, %edx addl %esi, %r13d addl %edx, %r14d xorl %r13d, %ebx xorl %r14d, %r12d roll $8, %ebx roll $8, %r12d addl %ebx, %r11d addl %r12d, %r10d xorl %r11d, %esi xorl %r10d, %edx roll $7, %esi roll $7, %edx movl %r12d, 80(%rsp) movl 92(%rsp), %r12d addl %edi, %eax addl %ecx, %r15d xorl %eax, %ebp xorl %r15d, %r12d roll $16, %ebp roll $16, %r12d addl %ebp, %r8d addl %r12d, %r9d xorl %r8d, %edi xorl %r9d, %ecx roll $12, %edi roll $12, %ecx addl %edi, %eax addl %ecx, %r15d xorl %eax, %ebp xorl %r15d, %r12d roll $8, %ebp roll $8, %r12d addl %ebp, %r8d addl %r12d, %r9d xorl %r8d, %edi xorl %r9d, %ecx roll $7, %edi roll $7, %ecx movl %r12d, 84(%rsp) movl 88(%rsp), %r12d decl %r12d cmpl $0, %r12d jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref$9 movl 84(%rsp), %r12d addl 20(%rsp), %r13d addl 16(%rsp), %r14d movl %r13d, %r13d shlq $32, %r13 movl %r14d, %r14d xorq %r14, %r13 addl 28(%rsp), %r15d addl 24(%rsp), %eax movl %r15d, %r14d shlq $32, %r14 movl %eax, %eax xorq %rax, %r14 movq (%rsp), %rax movq %r13, (%rax) addl 36(%rsp), %edx addl 32(%rsp), %ecx movl %edx, %edx shlq $32, %rdx movl %ecx, %ecx xorq %rcx, %rdx movq %r14, 8(%rax) addl 44(%rsp), %edi addl 40(%rsp), %esi movl %edi, %ecx shlq $32, %rcx movl %esi, %esi xorq %rsi, %rcx movq %rdx, 16(%rax) addl 52(%rsp), %r9d addl 48(%rsp), %r8d movl %r9d, %edx shlq $32, %rdx movl %r8d, %esi xorq %rsi, %rdx movq %rcx, 24(%rax) addl 60(%rsp), %r11d addl 56(%rsp), %r10d movl %r11d, %ecx shlq $32, %rcx movl %r10d, %esi xorq %rsi, %rcx movq %rdx, 32(%rax) addl 68(%rsp), %ebp addl 64(%rsp), %ebx movl %ebp, %edx shlq $32, %rdx movl %ebx, %esi xorq %rsi, %rdx movq %rcx, 40(%rax) movl 80(%rsp), %ecx addl 76(%rsp), %ecx addl 72(%rsp), %r12d movl %ecx, %ecx shlq $32, %rcx movl %r12d, %esi xorq %rsi, %rcx movq %rdx, 48(%rax) movq %rcx, 56(%rax) movq 8(%rsp), %rcx addq $64, %rax addq $-64, %rcx movq %rax, (%rsp) movq %rcx, 8(%rsp) movl 64(%rsp), %eax incl %eax movl %eax, 64(%rsp) Ljade_stream_chacha_chacha20_ietf_amd64_ref$7: movq 8(%rsp), %rax cmpq $64, %rax jnb Ljade_stream_chacha_chacha20_ietf_amd64_ref$8 cmpq $0, %rax jbe Ljade_stream_chacha_chacha20_ietf_amd64_ref$1 movl 76(%rsp), %eax movl %eax, 80(%rsp) movl 16(%rsp), %eax movl 20(%rsp), %ecx movl 24(%rsp), %edx movl 28(%rsp), %esi movl 32(%rsp), %edi movl 36(%rsp), %r8d movl 40(%rsp), %r9d movl 44(%rsp), %r10d movl 48(%rsp), %r11d movl 52(%rsp), %ebx movl 56(%rsp), %ebp movl 60(%rsp), %r12d movl 64(%rsp), %r13d movl 68(%rsp), %r14d movl 72(%rsp), %r15d movl %r15d, 84(%rsp) movl $10, %r15d Ljade_stream_chacha_chacha20_ietf_amd64_ref$6: movl %r15d, 88(%rsp) movl 84(%rsp), %r15d addl %edi, %eax addl %r9d, %edx xorl %eax, %r13d xorl %edx, %r15d roll $16, %r13d roll $16, %r15d addl %r13d, %r11d addl %r15d, %ebp xorl %r11d, %edi xorl %ebp, %r9d roll $12, %edi roll $12, %r9d addl %edi, %eax addl %r9d, %edx xorl %eax, %r13d xorl %edx, %r15d roll $8, %r13d roll $8, %r15d addl %r13d, %r11d addl %r15d, %ebp xorl %r11d, %edi xorl %ebp, %r9d roll $7, %edi roll $7, %r9d movl %r15d, 92(%rsp) movl 80(%rsp), %r15d addl %r8d, %ecx addl %r10d, %esi xorl %ecx, %r14d xorl %esi, %r15d roll $16, %r14d roll $16, %r15d addl %r14d, %ebx addl %r15d, %r12d xorl %ebx, %r8d xorl %r12d, %r10d roll $12, %r8d roll $12, %r10d addl %r8d, %ecx addl %r10d, %esi xorl %ecx, %r14d xorl %esi, %r15d roll $8, %r14d roll $8, %r15d addl %r14d, %ebx addl %r15d, %r12d xorl %ebx, %r8d xorl %r12d, %r10d roll $7, %r8d roll $7, %r10d addl %r9d, %ecx addl %r8d, %eax xorl %ecx, %r13d xorl %eax, %r15d roll $16, %r13d roll $16, %r15d addl %r13d, %r12d addl %r15d, %ebp xorl %r12d, %r9d xorl %ebp, %r8d roll $12, %r9d roll $12, %r8d addl %r9d, %ecx addl %r8d, %eax xorl %ecx, %r13d xorl %eax, %r15d roll $8, %r13d roll $8, %r15d addl %r13d, %r12d addl %r15d, %ebp xorl %r12d, %r9d xorl %ebp, %r8d roll $7, %r9d roll $7, %r8d movl %r15d, 80(%rsp) movl 92(%rsp), %r15d addl %r10d, %edx addl %edi, %esi xorl %edx, %r14d xorl %esi, %r15d roll $16, %r14d roll $16, %r15d addl %r14d, %r11d addl %r15d, %ebx xorl %r11d, %r10d xorl %ebx, %edi roll $12, %r10d roll $12, %edi addl %r10d, %edx addl %edi, %esi xorl %edx, %r14d xorl %esi, %r15d roll $8, %r14d roll $8, %r15d addl %r14d, %r11d addl %r15d, %ebx xorl %r11d, %r10d xorl %ebx, %edi roll $7, %r10d roll $7, %edi movl %r15d, 84(%rsp) movl 88(%rsp), %r15d decl %r15d cmpl $0, %r15d jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref$6 movl 84(%rsp), %r15d addl 16(%rsp), %eax addl 20(%rsp), %ecx addl 24(%rsp), %edx addl 28(%rsp), %esi addl 32(%rsp), %edi addl 36(%rsp), %r8d addl 40(%rsp), %r9d addl 44(%rsp), %r10d addl 48(%rsp), %r11d addl 52(%rsp), %ebx addl 56(%rsp), %ebp addl 60(%rsp), %r12d addl 64(%rsp), %r13d addl 68(%rsp), %r14d addl 72(%rsp), %r15d movl %r15d, 84(%rsp) movl 80(%rsp), %r15d addl 76(%rsp), %r15d movl %r15d, 80(%rsp) movl 84(%rsp), %r15d movl %eax, 16(%rsp) movl %ecx, 20(%rsp) movl %edx, 24(%rsp) movl %esi, 28(%rsp) movl %edi, 32(%rsp) movl %r8d, 36(%rsp) movl %r9d, 40(%rsp) movl %r10d, 44(%rsp) movl %r11d, 48(%rsp) movl %ebx, 52(%rsp) movl %ebp, 56(%rsp) movl %r12d, 60(%rsp) movl %r13d, 64(%rsp) movl %r14d, 68(%rsp) movl %r15d, 72(%rsp) movl 80(%rsp), %eax movl %eax, 76(%rsp) movq (%rsp), %rax movq 8(%rsp), %rcx movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref$4 Ljade_stream_chacha_chacha20_ietf_amd64_ref$5: movq 16(%rsp,%rsi,8), %rdi movq %rdi, (%rax,%rsi,8) incq %rsi Ljade_stream_chacha_chacha20_ietf_amd64_ref$4: cmpq %rdx, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_ref$5 shlq $3, %rsi jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref$2 Ljade_stream_chacha_chacha20_ietf_amd64_ref$3: movb 16(%rsp,%rsi), %dl movb %dl, (%rax,%rsi) incq %rsi Ljade_stream_chacha_chacha20_ietf_amd64_ref$2: cmpq %rcx, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_ref$3 Ljade_stream_chacha_chacha20_ietf_amd64_ref$1: xorq %rax, %rax movq 96(%rsp), %rbx movq 104(%rsp), %rbp movq 112(%rsp), %r12 movq 120(%rsp), %r13 movq 128(%rsp), %r14 movq 136(%rsp), %r15 movq 144(%rsp), %rsp ret _jade_stream_chacha_chacha20_ietf_amd64_ref_xor: jade_stream_chacha_chacha20_ietf_amd64_ref_xor: movq %rsp, %rax leaq -160(%rsp), %rsp andq $-8, %rsp movq %rax, 152(%rsp) movq %rbx, 104(%rsp) movq %rbp, 112(%rsp) movq %r12, 120(%rsp) movq %r13, 128(%rsp) movq %r14, 136(%rsp) movq %r15, 144(%rsp) movq %rdi, (%rsp) movq %rsi, 8(%rsp) movq %rdx, 16(%rsp) movl $1634760805, 24(%rsp) movl $857760878, 28(%rsp) movl $2036477234, 32(%rsp) movl $1797285236, 36(%rsp) movl (%r8), %eax movl %eax, 40(%rsp) movl 4(%r8), %eax movl %eax, 44(%rsp) movl 8(%r8), %eax movl %eax, 48(%rsp) movl 12(%r8), %eax movl %eax, 52(%rsp) movl 16(%r8), %eax movl %eax, 56(%rsp) movl 20(%r8), %eax movl %eax, 60(%rsp) movl 24(%r8), %eax movl %eax, 64(%rsp) movl 28(%r8), %eax movl %eax, 68(%rsp) movl $0, 72(%rsp) movl (%rcx), %eax movl %eax, 76(%rsp) movl 4(%rcx), %eax movl %eax, 80(%rsp) movl 8(%rcx), %eax movl %eax, 84(%rsp) jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$7 Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$8: movl 84(%rsp), %eax movl %eax, 88(%rsp) movl 24(%rsp), %r14d movl 28(%rsp), %r13d movl 32(%rsp), %eax movl 36(%rsp), %r15d movl 40(%rsp), %ecx movl 44(%rsp), %edx movl 48(%rsp), %esi movl 52(%rsp), %edi movl 56(%rsp), %r8d movl 60(%rsp), %r9d movl 64(%rsp), %r10d movl 68(%rsp), %r11d movl 72(%rsp), %ebx movl 76(%rsp), %ebp movl 80(%rsp), %r12d movl %r12d, 92(%rsp) movl $10, %r12d Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$9: movl %r12d, 96(%rsp) movl 92(%rsp), %r12d addl %ecx, %r14d addl %esi, %eax xorl %r14d, %ebx xorl %eax, %r12d roll $16, %ebx roll $16, %r12d addl %ebx, %r8d addl %r12d, %r10d xorl %r8d, %ecx xorl %r10d, %esi roll $12, %ecx roll $12, %esi addl %ecx, %r14d addl %esi, %eax xorl %r14d, %ebx xorl %eax, %r12d roll $8, %ebx roll $8, %r12d addl %ebx, %r8d addl %r12d, %r10d xorl %r8d, %ecx xorl %r10d, %esi roll $7, %ecx roll $7, %esi movl %r12d, 100(%rsp) movl 88(%rsp), %r12d addl %edx, %r13d addl %edi, %r15d xorl %r13d, %ebp xorl %r15d, %r12d roll $16, %ebp roll $16, %r12d addl %ebp, %r9d addl %r12d, %r11d xorl %r9d, %edx xorl %r11d, %edi roll $12, %edx roll $12, %edi addl %edx, %r13d addl %edi, %r15d xorl %r13d, %ebp xorl %r15d, %r12d roll $8, %ebp roll $8, %r12d addl %ebp, %r9d addl %r12d, %r11d xorl %r9d, %edx xorl %r11d, %edi roll $7, %edx roll $7, %edi addl %esi, %r13d addl %edx, %r14d xorl %r13d, %ebx xorl %r14d, %r12d roll $16, %ebx roll $16, %r12d addl %ebx, %r11d addl %r12d, %r10d xorl %r11d, %esi xorl %r10d, %edx roll $12, %esi roll $12, %edx addl %esi, %r13d addl %edx, %r14d xorl %r13d, %ebx xorl %r14d, %r12d roll $8, %ebx roll $8, %r12d addl %ebx, %r11d addl %r12d, %r10d xorl %r11d, %esi xorl %r10d, %edx roll $7, %esi roll $7, %edx movl %r12d, 88(%rsp) movl 100(%rsp), %r12d addl %edi, %eax addl %ecx, %r15d xorl %eax, %ebp xorl %r15d, %r12d roll $16, %ebp roll $16, %r12d addl %ebp, %r8d addl %r12d, %r9d xorl %r8d, %edi xorl %r9d, %ecx roll $12, %edi roll $12, %ecx addl %edi, %eax addl %ecx, %r15d xorl %eax, %ebp xorl %r15d, %r12d roll $8, %ebp roll $8, %r12d addl %ebp, %r8d addl %r12d, %r9d xorl %r8d, %edi xorl %r9d, %ecx roll $7, %edi roll $7, %ecx movl %r12d, 92(%rsp) movl 96(%rsp), %r12d decl %r12d cmpl $0, %r12d jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$9 movl 92(%rsp), %r12d addl 28(%rsp), %r13d addl 24(%rsp), %r14d movl %r13d, %r13d shlq $32, %r13 movl %r14d, %r14d xorq %r14, %r13 movq 8(%rsp), %r14 xorq (%r14), %r13 addl 36(%rsp), %r15d addl 32(%rsp), %eax movl %r15d, %r15d shlq $32, %r15 movl %eax, %eax xorq %rax, %r15 xorq 8(%r14), %r15 movq (%rsp), %rax movq %r13, (%rax) addl 44(%rsp), %edx addl 40(%rsp), %ecx movl %edx, %edx shlq $32, %rdx movl %ecx, %ecx xorq %rcx, %rdx xorq 16(%r14), %rdx movq %r15, 8(%rax) addl 52(%rsp), %edi addl 48(%rsp), %esi movl %edi, %ecx shlq $32, %rcx movl %esi, %esi xorq %rsi, %rcx xorq 24(%r14), %rcx movq %rdx, 16(%rax) addl 60(%rsp), %r9d addl 56(%rsp), %r8d movl %r9d, %edx shlq $32, %rdx movl %r8d, %esi xorq %rsi, %rdx xorq 32(%r14), %rdx movq %rcx, 24(%rax) addl 68(%rsp), %r11d addl 64(%rsp), %r10d movl %r11d, %ecx shlq $32, %rcx movl %r10d, %esi xorq %rsi, %rcx xorq 40(%r14), %rcx movq %rdx, 32(%rax) addl 76(%rsp), %ebp addl 72(%rsp), %ebx movl %ebp, %edx shlq $32, %rdx movl %ebx, %esi xorq %rsi, %rdx xorq 48(%r14), %rdx movq %rcx, 40(%rax) movl 88(%rsp), %ecx addl 84(%rsp), %ecx addl 80(%rsp), %r12d movl %ecx, %ecx shlq $32, %rcx movl %r12d, %esi xorq %rsi, %rcx xorq 56(%r14), %rcx movq %rdx, 48(%rax) movq %rcx, 56(%rax) movq 16(%rsp), %rcx addq $64, %rax addq $64, %r14 addq $-64, %rcx movq %rax, (%rsp) movq %r14, 8(%rsp) movq %rcx, 16(%rsp) movl 72(%rsp), %eax incl %eax movl %eax, 72(%rsp) Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$7: movq 16(%rsp), %rax cmpq $64, %rax jnb Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$8 cmpq $0, %rax jbe Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$1 movl 84(%rsp), %eax movl %eax, 88(%rsp) movl 24(%rsp), %eax movl 28(%rsp), %ecx movl 32(%rsp), %edx movl 36(%rsp), %esi movl 40(%rsp), %edi movl 44(%rsp), %r8d movl 48(%rsp), %r9d movl 52(%rsp), %r10d movl 56(%rsp), %r11d movl 60(%rsp), %ebx movl 64(%rsp), %ebp movl 68(%rsp), %r12d movl 72(%rsp), %r13d movl 76(%rsp), %r14d movl 80(%rsp), %r15d movl %r15d, 92(%rsp) movl $10, %r15d Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$6: movl %r15d, 96(%rsp) movl 92(%rsp), %r15d addl %edi, %eax addl %r9d, %edx xorl %eax, %r13d xorl %edx, %r15d roll $16, %r13d roll $16, %r15d addl %r13d, %r11d addl %r15d, %ebp xorl %r11d, %edi xorl %ebp, %r9d roll $12, %edi roll $12, %r9d addl %edi, %eax addl %r9d, %edx xorl %eax, %r13d xorl %edx, %r15d roll $8, %r13d roll $8, %r15d addl %r13d, %r11d addl %r15d, %ebp xorl %r11d, %edi xorl %ebp, %r9d roll $7, %edi roll $7, %r9d movl %r15d, 100(%rsp) movl 88(%rsp), %r15d addl %r8d, %ecx addl %r10d, %esi xorl %ecx, %r14d xorl %esi, %r15d roll $16, %r14d roll $16, %r15d addl %r14d, %ebx addl %r15d, %r12d xorl %ebx, %r8d xorl %r12d, %r10d roll $12, %r8d roll $12, %r10d addl %r8d, %ecx addl %r10d, %esi xorl %ecx, %r14d xorl %esi, %r15d roll $8, %r14d roll $8, %r15d addl %r14d, %ebx addl %r15d, %r12d xorl %ebx, %r8d xorl %r12d, %r10d roll $7, %r8d roll $7, %r10d addl %r9d, %ecx addl %r8d, %eax xorl %ecx, %r13d xorl %eax, %r15d roll $16, %r13d roll $16, %r15d addl %r13d, %r12d addl %r15d, %ebp xorl %r12d, %r9d xorl %ebp, %r8d roll $12, %r9d roll $12, %r8d addl %r9d, %ecx addl %r8d, %eax xorl %ecx, %r13d xorl %eax, %r15d roll $8, %r13d roll $8, %r15d addl %r13d, %r12d addl %r15d, %ebp xorl %r12d, %r9d xorl %ebp, %r8d roll $7, %r9d roll $7, %r8d movl %r15d, 88(%rsp) movl 100(%rsp), %r15d addl %r10d, %edx addl %edi, %esi xorl %edx, %r14d xorl %esi, %r15d roll $16, %r14d roll $16, %r15d addl %r14d, %r11d addl %r15d, %ebx xorl %r11d, %r10d xorl %ebx, %edi roll $12, %r10d roll $12, %edi addl %r10d, %edx addl %edi, %esi xorl %edx, %r14d xorl %esi, %r15d roll $8, %r14d roll $8, %r15d addl %r14d, %r11d addl %r15d, %ebx xorl %r11d, %r10d xorl %ebx, %edi roll $7, %r10d roll $7, %edi movl %r15d, 92(%rsp) movl 96(%rsp), %r15d decl %r15d cmpl $0, %r15d jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$6 movl 92(%rsp), %r15d addl 24(%rsp), %eax addl 28(%rsp), %ecx addl 32(%rsp), %edx addl 36(%rsp), %esi addl 40(%rsp), %edi addl 44(%rsp), %r8d addl 48(%rsp), %r9d addl 52(%rsp), %r10d addl 56(%rsp), %r11d addl 60(%rsp), %ebx addl 64(%rsp), %ebp addl 68(%rsp), %r12d addl 72(%rsp), %r13d addl 76(%rsp), %r14d addl 80(%rsp), %r15d movl %r15d, 92(%rsp) movl 88(%rsp), %r15d addl 84(%rsp), %r15d movl %r15d, 88(%rsp) movl 92(%rsp), %r15d movl %eax, 24(%rsp) movl %ecx, 28(%rsp) movl %edx, 32(%rsp) movl %esi, 36(%rsp) movl %edi, 40(%rsp) movl %r8d, 44(%rsp) movl %r9d, 48(%rsp) movl %r10d, 52(%rsp) movl %r11d, 56(%rsp) movl %ebx, 60(%rsp) movl %ebp, 64(%rsp) movl %r12d, 68(%rsp) movl %r13d, 72(%rsp) movl %r14d, 76(%rsp) movl %r15d, 80(%rsp) movl 88(%rsp), %eax movl %eax, 84(%rsp) movq (%rsp), %rax movq 8(%rsp), %rcx movq 16(%rsp), %rdx movq %rdx, %rsi shrq $3, %rsi movq $0, %rdi jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$4 Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$5: movq (%rcx,%rdi,8), %r8 xorq 24(%rsp,%rdi,8), %r8 movq %r8, (%rax,%rdi,8) incq %rdi Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$4: cmpq %rsi, %rdi jb Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$5 shlq $3, %rdi jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$2 Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$3: movb (%rcx,%rdi), %sil xorb 24(%rsp,%rdi), %sil movb %sil, (%rax,%rdi) incq %rdi Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$2: cmpq %rdx, %rdi jb Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$3 Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$1: xorq %rax, %rax movq 104(%rsp), %rbx movq 112(%rsp), %rbp movq 120(%rsp), %r12 movq 128(%rsp), %r13 movq 136(%rsp), %r14 movq 144(%rsp), %r15 movq 152(%rsp), %rsp ret
usenix-security-verdict/verdict
31,350
deps/libcrux/sys/libjade/jazz/sha3_224_ref.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_224_amd64_ref .globl jade_hash_sha3_224_amd64_ref _jade_hash_sha3_224_amd64_ref: jade_hash_sha3_224_amd64_ref: movq %rsp, %rax leaq -48(%rsp), %rsp andq $-8, %rsp movq %rax, 40(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq %r14, 32(%rsp) movq $28, %rcx movb $6, %r8b movq $144, %rax leaq -448(%rsp), %rsp call L_keccak1600_ref$1 Ljade_hash_sha3_224_amd64_ref$1: leaq 448(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %r14 movq 40(%rsp), %rsp ret L_keccak1600_ref$1: movq %rdi, 8(%rsp) movq %rcx, 16(%rsp) movb %r8b, 448(%rsp) xorq %rcx, %rcx movq %rcx, 48(%rsp) movq %rcx, 56(%rsp) movq %rcx, 64(%rsp) movq %rcx, 72(%rsp) movq %rcx, 80(%rsp) movq %rcx, 88(%rsp) movq %rcx, 96(%rsp) movq %rcx, 104(%rsp) movq %rcx, 112(%rsp) movq %rcx, 120(%rsp) movq %rcx, 128(%rsp) movq %rcx, 136(%rsp) movq %rcx, 144(%rsp) movq %rcx, 152(%rsp) movq %rcx, 160(%rsp) movq %rcx, 168(%rsp) movq %rcx, 176(%rsp) movq %rcx, 184(%rsp) movq %rcx, 192(%rsp) movq %rcx, 200(%rsp) movq %rcx, 208(%rsp) movq %rcx, 216(%rsp) movq %rcx, 224(%rsp) movq %rcx, 232(%rsp) movq %rcx, 240(%rsp) jmp L_keccak1600_ref$16 L_keccak1600_ref$17: movq %rax, %rcx shrq $3, %rcx movq $0, %rdi jmp L_keccak1600_ref$19 L_keccak1600_ref$20: movq (%rsi,%rdi,8), %r8 xorq %r8, 48(%rsp,%rdi,8) incq %rdi L_keccak1600_ref$19: cmpq %rcx, %rdi jb L_keccak1600_ref$20 addq %rax, %rsi subq %rax, %rdx movq %rsi, 24(%rsp) movq %rdx, 32(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$18: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$18 movq 24(%rsp), %rsi movq 32(%rsp), %rdx movq 40(%rsp), %rax L_keccak1600_ref$16: cmpq %rax, %rdx jnb L_keccak1600_ref$17 movb 448(%rsp), %cl movq %rdx, %rdi shrq $3, %rdi movq $0, %r8 jmp L_keccak1600_ref$14 L_keccak1600_ref$15: movq (%rsi,%r8,8), %r9 xorq %r9, 48(%rsp,%r8,8) incq %r8 L_keccak1600_ref$14: cmpq %rdi, %r8 jb L_keccak1600_ref$15 shlq $3, %r8 jmp L_keccak1600_ref$12 L_keccak1600_ref$13: movb (%rsi,%r8), %dil xorb %dil, 48(%rsp,%r8) incq %r8 L_keccak1600_ref$12: cmpq %rdx, %r8 jb L_keccak1600_ref$13 xorb %cl, 48(%rsp,%r8) movq %rax, %rcx addq $-1, %rcx xorb $-128, 48(%rsp,%rcx) movq 16(%rsp), %rdx jmp L_keccak1600_ref$7 L_keccak1600_ref$8: movq %rdx, 16(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$11: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$11 movq 8(%rsp), %rcx movq 16(%rsp), %rdx movq 40(%rsp), %rax movq %rax, %rsi shrq $3, %rsi movq $0, %rdi jmp L_keccak1600_ref$9 L_keccak1600_ref$10: movq 48(%rsp,%rdi,8), %r8 movq %r8, (%rcx,%rdi,8) incq %rdi L_keccak1600_ref$9: cmpq %rsi, %rdi jb L_keccak1600_ref$10 addq %rax, %rcx subq %rax, %rdx movq %rcx, 8(%rsp) L_keccak1600_ref$7: cmpq %rax, %rdx jnbe L_keccak1600_ref$8 movq %rdx, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$6: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$6 movq 8(%rsp), %rax movq 40(%rsp), %rcx movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_ref$4 L_keccak1600_ref$5: movq 48(%rsp,%rsi,8), %rdi movq %rdi, (%rax,%rsi,8) incq %rsi L_keccak1600_ref$4: cmpq %rdx, %rsi jb L_keccak1600_ref$5 shlq $3, %rsi jmp L_keccak1600_ref$2 L_keccak1600_ref$3: movb 48(%rsp,%rsi), %dl movb %dl, (%rax,%rsi) incq %rsi L_keccak1600_ref$2: cmpq %rcx, %rsi jb L_keccak1600_ref$3 ret .data .p2align 5 _glob_data: glob_data: .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128
usenix-security-verdict/verdict
678,286
deps/libcrux/sys/libjade/jazz/kyber_kyber768_avx2.s
.att_syntax .text .p2align 5 .globl _jade_kem_kyber_kyber768_amd64_avx2_dec .globl jade_kem_kyber_kyber768_amd64_avx2_dec .globl _jade_kem_kyber_kyber768_amd64_avx2_enc .globl jade_kem_kyber_kyber768_amd64_avx2_enc .globl _jade_kem_kyber_kyber768_amd64_avx2_enc_derand .globl jade_kem_kyber_kyber768_amd64_avx2_enc_derand .globl _jade_kem_kyber_kyber768_amd64_avx2_keypair .globl jade_kem_kyber_kyber768_amd64_avx2_keypair .globl _jade_kem_kyber_kyber768_amd64_avx2_keypair_derand .globl jade_kem_kyber_kyber768_amd64_avx2_keypair_derand _jade_kem_kyber_kyber768_amd64_avx2_dec: jade_kem_kyber_kyber768_amd64_avx2_dec: movq %rsp, %rax leaq -17200(%rsp), %rsp andq $-32, %rsp movq %rax, 17192(%rsp) movq %rbx, 17160(%rsp) movq %rbp, 17168(%rsp) movq %r12, 17176(%rsp) movq %r13, 17184(%rsp) movq %rdi, 17120(%rsp) movq %rsi, 17128(%rsp) leaq 32(%rsp), %rax vpbroadcastd glob_data + 6404(%rip), %ymm0 vmovdqu glob_data + 64(%rip), %ymm1 vpbroadcastq glob_data + 6192(%rip), %ymm2 vpbroadcastd glob_data + 6400(%rip), %ymm3 vmovdqu (%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6368(%rsp) vmovdqu 20(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6400(%rsp) vmovdqu 40(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6432(%rsp) vmovdqu 60(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6464(%rsp) vmovdqu 80(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6496(%rsp) vmovdqu 100(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6528(%rsp) vmovdqu 120(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6560(%rsp) vmovdqu 140(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6592(%rsp) vmovdqu 160(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6624(%rsp) vmovdqu 180(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6656(%rsp) vmovdqu 200(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6688(%rsp) vmovdqu 220(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6720(%rsp) vmovdqu 240(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6752(%rsp) vmovdqu 260(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6784(%rsp) vmovdqu 280(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6816(%rsp) vmovdqu 300(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6848(%rsp) vmovdqu 320(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6880(%rsp) vmovdqu 340(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6912(%rsp) vmovdqu 360(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6944(%rsp) vmovdqu 380(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6976(%rsp) vmovdqu 400(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7008(%rsp) vmovdqu 420(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7040(%rsp) vmovdqu 440(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7072(%rsp) vmovdqu 460(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7104(%rsp) vmovdqu 480(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7136(%rsp) vmovdqu 500(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7168(%rsp) vmovdqu 520(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7200(%rsp) vmovdqu 540(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7232(%rsp) vmovdqu 560(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7264(%rsp) vmovdqu 580(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7296(%rsp) vmovdqu 600(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7328(%rsp) vmovdqu 620(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7360(%rsp) vmovdqu 640(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7392(%rsp) vmovdqu 660(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7424(%rsp) vmovdqu 680(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7456(%rsp) vmovdqu 700(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7488(%rsp) vmovdqu 720(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7520(%rsp) vmovdqu 740(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7552(%rsp) vmovdqu 760(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7584(%rsp) vmovdqu 780(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7616(%rsp) vmovdqu 800(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7648(%rsp) vmovdqu 820(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7680(%rsp) vmovdqu 840(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7712(%rsp) vmovdqu 860(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7744(%rsp) vmovdqu 880(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7776(%rsp) vmovdqu 900(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7808(%rsp) vmovdqu 920(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7840(%rsp) vmovdqu 940(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm1 vpsllvd %ymm2, %ymm1, %ymm1 vpsrlw $1, %ymm1, %ymm1 vpand %ymm3, %ymm1, %ymm1 vpmulhrsw %ymm0, %ymm1, %ymm0 vmovdqu %ymm0, 7872(%rsp) addq $960, %rsi leaq 2432(%rsp), %rcx leaq -16(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$145(%rip), %r8 jmp L_poly_decompress$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$145: leaq 16(%rsp), %rsp movq %rdx, %rdi leaq 7904(%rsp), %r8 leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$144(%rip), %r10 jmp L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$144: addq $384, %rdi leaq 8416(%rsp), %r8 leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$143(%rip), %r10 jmp L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$143: addq $384, %rdi leaq 8928(%rsp), %r8 leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$142(%rip), %r10 jmp L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$142: leaq 6368(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$141(%rip), %rdi jmp L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$141: leaq 6880(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$140(%rip), %rdi jmp L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$140: leaq 7392(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$139(%rip), %rdi jmp L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$139: leaq 2944(%rsp), %rcx leaq 7904(%rsp), %rsi leaq 6368(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$138(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$138: leaq 3456(%rsp), %rcx leaq 8416(%rsp), %rsi leaq 6880(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$137(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$137: leaq 2944(%rsp), %rcx leaq 3456(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$136(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$136: leaq 3456(%rsp), %rcx leaq 8928(%rsp), %rsi leaq 7392(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$135(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$135: leaq 2944(%rsp), %rcx leaq 3456(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$134(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$134: leaq 2944(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$133(%rip), %rdi jmp L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$133: leaq 3456(%rsp), %rcx leaq 2432(%rsp), %rsi leaq 2944(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$132(%rip), %r8 jmp L_poly_sub$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$132: leaq 3456(%rsp), %rcx vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rcx) vmovdqu 32(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rcx) vmovdqu 64(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rcx) vmovdqu 96(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rcx) vmovdqu 128(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rcx) vmovdqu 160(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rcx) vmovdqu 192(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rcx) vmovdqu 224(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rcx) vmovdqu 256(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rcx) vmovdqu 288(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rcx) vmovdqu 320(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rcx) vmovdqu 352(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rcx) vmovdqu 384(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rcx) vmovdqu 416(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rcx) vmovdqu 448(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rcx) vmovdqu 480(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rcx) leaq 3456(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$131(%rip), %rdi jmp L_poly_tomsg_1$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$131: leaq 32(%rdx), %rax addq $2304, %rax movq (%rax), %rcx movq %rcx, 64(%rsp) movq 8(%rax), %rcx movq %rcx, 72(%rsp) movq 16(%rax), %rcx movq %rcx, 80(%rsp) movq 24(%rax), %rax movq %rax, 88(%rsp) movq %rdx, 17136(%rsp) leaq 96(%rsp), %rax leaq 32(%rsp), %rcx leaq -256(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$130(%rip), %rdx movq %rdx, 224(%rsp) jmp L_sha3_512_64$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$130: leaq 256(%rsp), %rsp movq 17136(%rsp), %rcx addq $1152, %rcx leaq 5280(%rsp), %rdx leaq 32(%rsp), %rax leaq 128(%rsp), %rsi movq %rdx, 17144(%rsp) movq %rcx, %rdi leaq 6368(%rsp), %r8 leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$129(%rip), %r10 jmp L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$129: addq $384, %rdi leaq 6880(%rsp), %r8 leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$128(%rip), %r10 jmp L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$128: addq $384, %rdi leaq 7392(%rsp), %r8 leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$127(%rip), %r10 jmp L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$127: movq $0, %rdx addq $1152, %rcx jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$125 Ljade_kem_kyber_kyber768_amd64_avx2_dec$126: movq (%rcx), %rdi movq %rdi, (%rsp,%rdx,8) addq $8, %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_avx2_dec$125: cmpq $4, %rdx jb Ljade_kem_kyber_kyber768_amd64_avx2_dec$126 leaq 3456(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$124(%rip), %r8 jmp L_poly_frommsg_1$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$124: movq %rsi, 17152(%rsp) vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 384(%rsp) vmovdqu %ymm0, 896(%rsp) vmovdqu %ymm0, 1408(%rsp) vmovdqu %ymm0, 1920(%rsp) vmovdqu %ymm0, (%rsp) movb $0, 416(%rsp) movb $0, 417(%rsp) movb $0, 928(%rsp) movb $1, 929(%rsp) movb $0, 1440(%rsp) movb $2, 1441(%rsp) movb $1, 1952(%rsp) movb $0, 1953(%rsp) leaq 4480(%rsp), %rax leaq 384(%rsp), %rcx leaq 896(%rsp), %rdx leaq 1408(%rsp), %rsi leaq 1920(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$123(%rip), %r8 movq %r8, (%rsp) jmp L_shake128_absorb4x_34$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$123: leaq 8(%rsp), %rsp leaq 4480(%rsp), %rax leaq 384(%rsp), %rdi leaq 896(%rsp), %r8 leaq 1408(%rsp), %r9 leaq 1920(%rsp), %r10 movq %rdi, %r11 movq %r8, %rbx movq %r9, %rbp movq %r10, %r12 leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$122(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$122: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 168(%rdi), %r11 leaq 168(%r8), %rbx leaq 168(%r9), %rbp leaq 168(%r10), %r12 leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$121(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$121: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 336(%rdi), %rdi leaq 336(%r8), %r8 leaq 336(%r9), %r9 leaq 336(%r10), %r10 leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$120(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$120: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%rdi) vmovhpd %xmm1, (%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%r9) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%rdi) vmovhpd %xmm1, 8(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%r9) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%rdi) vmovhpd %xmm1, 16(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%r9) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%rdi) vmovhpd %xmm1, 24(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%r9) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%rdi) vmovhpd %xmm1, 32(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%r9) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%rdi) vmovhpd %xmm1, 40(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%r9) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%rdi) vmovhpd %xmm1, 48(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%r9) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%rdi) vmovhpd %xmm1, 56(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%r9) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%rdi) vmovhpd %xmm1, 64(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%r9) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%rdi) vmovhpd %xmm1, 72(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%r9) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%rdi) vmovhpd %xmm1, 80(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%r9) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%rdi) vmovhpd %xmm1, 88(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%r9) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%rdi) vmovhpd %xmm1, 96(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%r9) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%rdi) vmovhpd %xmm1, 104(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%r9) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%rdi) vmovhpd %xmm1, 112(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%r9) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%rdi) vmovhpd %xmm1, 120(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%r9) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%rdi) vmovhpd %xmm1, 128(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%r9) vmovhpd %xmm0, 128(%r10) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%rdi) vmovhpd %xmm1, 136(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%r9) vmovhpd %xmm0, 136(%r10) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%rdi) vmovhpd %xmm1, 144(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%r9) vmovhpd %xmm0, 144(%r10) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%rdi) vmovhpd %xmm1, 152(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%r9) vmovhpd %xmm0, 152(%r10) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%rdi) vmovhpd %xmm1, 160(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%r9) vmovhpd %xmm0, 160(%r10) leaq 12512(%rsp), %rbx leaq 384(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$119(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$119: movq %r13, %r9 leaq 13024(%rsp), %rbx leaq 896(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$118(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$118: movq %r13, %rdi leaq 13536(%rsp), %rbx leaq 1408(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$117(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$117: movq %r13, %r8 leaq 14048(%rsp), %rbx leaq 1920(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$116(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$116: cmpq $255, %r9 setbe %al cmpq $255, %rdi setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$93 Ljade_kem_kyber_kyber768_amd64_avx2_dec$94: leaq 4480(%rsp), %rax leaq 384(%rsp), %r10 leaq 896(%rsp), %r11 leaq 1408(%rsp), %rbx leaq 1920(%rsp), %rbp leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$115(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$115: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r10) vmovhpd %xmm1, (%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbx) vmovhpd %xmm0, (%rbp) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r10) vmovhpd %xmm1, 8(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbx) vmovhpd %xmm0, 8(%rbp) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r10) vmovhpd %xmm1, 16(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbx) vmovhpd %xmm0, 16(%rbp) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r10) vmovhpd %xmm1, 24(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbx) vmovhpd %xmm0, 24(%rbp) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r10) vmovhpd %xmm1, 32(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbx) vmovhpd %xmm0, 32(%rbp) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r10) vmovhpd %xmm1, 40(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbx) vmovhpd %xmm0, 40(%rbp) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r10) vmovhpd %xmm1, 48(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbx) vmovhpd %xmm0, 48(%rbp) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r10) vmovhpd %xmm1, 56(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbx) vmovhpd %xmm0, 56(%rbp) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r10) vmovhpd %xmm1, 64(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbx) vmovhpd %xmm0, 64(%rbp) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r10) vmovhpd %xmm1, 72(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbx) vmovhpd %xmm0, 72(%rbp) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r10) vmovhpd %xmm1, 80(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbx) vmovhpd %xmm0, 80(%rbp) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r10) vmovhpd %xmm1, 88(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbx) vmovhpd %xmm0, 88(%rbp) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r10) vmovhpd %xmm1, 96(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbx) vmovhpd %xmm0, 96(%rbp) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r10) vmovhpd %xmm1, 104(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbx) vmovhpd %xmm0, 104(%rbp) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r10) vmovhpd %xmm1, 112(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbx) vmovhpd %xmm0, 112(%rbp) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r10) vmovhpd %xmm1, 120(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbx) vmovhpd %xmm0, 120(%rbp) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r10) vmovhpd %xmm1, 128(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbx) vmovhpd %xmm0, 128(%rbp) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r10) vmovhpd %xmm1, 136(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbx) vmovhpd %xmm0, 136(%rbp) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r10) vmovhpd %xmm1, 144(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbx) vmovhpd %xmm0, 144(%rbp) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r10) vmovhpd %xmm1, 152(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbx) vmovhpd %xmm0, 152(%rbp) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r10) vmovhpd %xmm1, 160(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbx) vmovhpd %xmm0, 160(%rbp) leaq 12512(%rsp), %rax leaq 384(%rsp), %rcx movq $0, %rdx cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$110 Ljade_kem_kyber_kyber768_amd64_avx2_dec$111: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$114 movw %si, (%rax,%r9,2) incq %r9 Ljade_kem_kyber_kyber768_amd64_avx2_dec$114: cmpq $256, %r9 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$112 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$112 movw %r11w, (%rax,%r9,2) incq %r9 Ljade_kem_kyber_kyber768_amd64_avx2_dec$113: Ljade_kem_kyber_kyber768_amd64_avx2_dec$112: cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$110: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$111 leaq 13024(%rsp), %rax leaq 896(%rsp), %rcx movq $0, %rdx cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$105 Ljade_kem_kyber_kyber768_amd64_avx2_dec$106: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$109 movw %si, (%rax,%rdi,2) incq %rdi Ljade_kem_kyber_kyber768_amd64_avx2_dec$109: cmpq $256, %rdi jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$107 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$107 movw %r11w, (%rax,%rdi,2) incq %rdi Ljade_kem_kyber_kyber768_amd64_avx2_dec$108: Ljade_kem_kyber_kyber768_amd64_avx2_dec$107: cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$105: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$106 leaq 13536(%rsp), %rax leaq 1408(%rsp), %rcx movq $0, %rdx cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$100 Ljade_kem_kyber_kyber768_amd64_avx2_dec$101: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$104 movw %si, (%rax,%r8,2) incq %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$104: cmpq $256, %r8 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$102 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$102 movw %r11w, (%rax,%r8,2) incq %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$103: Ljade_kem_kyber_kyber768_amd64_avx2_dec$102: cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$100: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$101 leaq 14048(%rsp), %rax leaq 1920(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$95 Ljade_kem_kyber_kyber768_amd64_avx2_dec$96: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$99 movw %si, (%rax,%r13,2) incq %r13 Ljade_kem_kyber_kyber768_amd64_avx2_dec$99: cmpq $256, %r13 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$97 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$97 movw %r11w, (%rax,%r13,2) incq %r13 Ljade_kem_kyber_kyber768_amd64_avx2_dec$98: Ljade_kem_kyber_kyber768_amd64_avx2_dec$97: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$95: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$96 cmpq $255, %r9 setbe %al cmpq $255, %rdi setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl Ljade_kem_kyber_kyber768_amd64_avx2_dec$93: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$94 vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 384(%rsp) vmovdqu %ymm0, 896(%rsp) vmovdqu %ymm0, 1408(%rsp) vmovdqu %ymm0, 1920(%rsp) vmovdqu %ymm0, (%rsp) movb $1, 416(%rsp) movb $1, 417(%rsp) movb $1, 928(%rsp) movb $2, 929(%rsp) movb $2, 1440(%rsp) movb $0, 1441(%rsp) movb $2, 1952(%rsp) movb $1, 1953(%rsp) leaq 4480(%rsp), %rax leaq 384(%rsp), %rcx leaq 896(%rsp), %rdx leaq 1408(%rsp), %rsi leaq 1920(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$92(%rip), %r8 movq %r8, (%rsp) jmp L_shake128_absorb4x_34$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$92: leaq 8(%rsp), %rsp leaq 4480(%rsp), %rax leaq 384(%rsp), %rdi leaq 896(%rsp), %r8 leaq 1408(%rsp), %r9 leaq 1920(%rsp), %r10 movq %rdi, %r11 movq %r8, %rbx movq %r9, %rbp movq %r10, %r12 leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$91(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$91: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 168(%rdi), %r11 leaq 168(%r8), %rbx leaq 168(%r9), %rbp leaq 168(%r10), %r12 leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$90(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$90: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 336(%rdi), %rdi leaq 336(%r8), %r8 leaq 336(%r9), %r9 leaq 336(%r10), %r10 leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$89(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$89: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%rdi) vmovhpd %xmm1, (%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%r9) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%rdi) vmovhpd %xmm1, 8(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%r9) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%rdi) vmovhpd %xmm1, 16(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%r9) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%rdi) vmovhpd %xmm1, 24(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%r9) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%rdi) vmovhpd %xmm1, 32(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%r9) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%rdi) vmovhpd %xmm1, 40(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%r9) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%rdi) vmovhpd %xmm1, 48(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%r9) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%rdi) vmovhpd %xmm1, 56(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%r9) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%rdi) vmovhpd %xmm1, 64(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%r9) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%rdi) vmovhpd %xmm1, 72(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%r9) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%rdi) vmovhpd %xmm1, 80(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%r9) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%rdi) vmovhpd %xmm1, 88(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%r9) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%rdi) vmovhpd %xmm1, 96(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%r9) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%rdi) vmovhpd %xmm1, 104(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%r9) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%rdi) vmovhpd %xmm1, 112(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%r9) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%rdi) vmovhpd %xmm1, 120(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%r9) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%rdi) vmovhpd %xmm1, 128(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%r9) vmovhpd %xmm0, 128(%r10) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%rdi) vmovhpd %xmm1, 136(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%r9) vmovhpd %xmm0, 136(%r10) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%rdi) vmovhpd %xmm1, 144(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%r9) vmovhpd %xmm0, 144(%r10) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%rdi) vmovhpd %xmm1, 152(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%r9) vmovhpd %xmm0, 152(%r10) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%rdi) vmovhpd %xmm1, 160(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%r9) vmovhpd %xmm0, 160(%r10) leaq 14560(%rsp), %rbx leaq 384(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$88(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$88: movq %r13, %rdi leaq 15072(%rsp), %rbx leaq 896(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$87(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$87: movq %r13, %r8 leaq 15584(%rsp), %rbx leaq 1408(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$86(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$86: movq %r13, %r9 leaq 16096(%rsp), %rbx leaq 1920(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$85(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$85: cmpq $255, %rdi setbe %al cmpq $255, %r8 setbe %cl orb %cl, %al cmpq $255, %r9 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$62 Ljade_kem_kyber_kyber768_amd64_avx2_dec$63: leaq 4480(%rsp), %rax leaq 384(%rsp), %r10 leaq 896(%rsp), %r11 leaq 1408(%rsp), %rbx leaq 1920(%rsp), %rbp leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$84(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$84: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r10) vmovhpd %xmm1, (%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbx) vmovhpd %xmm0, (%rbp) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r10) vmovhpd %xmm1, 8(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbx) vmovhpd %xmm0, 8(%rbp) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r10) vmovhpd %xmm1, 16(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbx) vmovhpd %xmm0, 16(%rbp) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r10) vmovhpd %xmm1, 24(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbx) vmovhpd %xmm0, 24(%rbp) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r10) vmovhpd %xmm1, 32(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbx) vmovhpd %xmm0, 32(%rbp) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r10) vmovhpd %xmm1, 40(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbx) vmovhpd %xmm0, 40(%rbp) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r10) vmovhpd %xmm1, 48(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbx) vmovhpd %xmm0, 48(%rbp) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r10) vmovhpd %xmm1, 56(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbx) vmovhpd %xmm0, 56(%rbp) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r10) vmovhpd %xmm1, 64(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbx) vmovhpd %xmm0, 64(%rbp) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r10) vmovhpd %xmm1, 72(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbx) vmovhpd %xmm0, 72(%rbp) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r10) vmovhpd %xmm1, 80(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbx) vmovhpd %xmm0, 80(%rbp) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r10) vmovhpd %xmm1, 88(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbx) vmovhpd %xmm0, 88(%rbp) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r10) vmovhpd %xmm1, 96(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbx) vmovhpd %xmm0, 96(%rbp) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r10) vmovhpd %xmm1, 104(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbx) vmovhpd %xmm0, 104(%rbp) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r10) vmovhpd %xmm1, 112(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbx) vmovhpd %xmm0, 112(%rbp) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r10) vmovhpd %xmm1, 120(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbx) vmovhpd %xmm0, 120(%rbp) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r10) vmovhpd %xmm1, 128(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbx) vmovhpd %xmm0, 128(%rbp) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r10) vmovhpd %xmm1, 136(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbx) vmovhpd %xmm0, 136(%rbp) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r10) vmovhpd %xmm1, 144(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbx) vmovhpd %xmm0, 144(%rbp) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r10) vmovhpd %xmm1, 152(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbx) vmovhpd %xmm0, 152(%rbp) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r10) vmovhpd %xmm1, 160(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbx) vmovhpd %xmm0, 160(%rbp) leaq 14560(%rsp), %rax leaq 384(%rsp), %rcx movq $0, %rdx cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$79 Ljade_kem_kyber_kyber768_amd64_avx2_dec$80: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$83 movw %si, (%rax,%rdi,2) incq %rdi Ljade_kem_kyber_kyber768_amd64_avx2_dec$83: cmpq $256, %rdi jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$81 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$81 movw %r11w, (%rax,%rdi,2) incq %rdi Ljade_kem_kyber_kyber768_amd64_avx2_dec$82: Ljade_kem_kyber_kyber768_amd64_avx2_dec$81: cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$79: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$80 leaq 15072(%rsp), %rax leaq 896(%rsp), %rcx movq $0, %rdx cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$74 Ljade_kem_kyber_kyber768_amd64_avx2_dec$75: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$78 movw %si, (%rax,%r8,2) incq %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$78: cmpq $256, %r8 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$76 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$76 movw %r11w, (%rax,%r8,2) incq %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$77: Ljade_kem_kyber_kyber768_amd64_avx2_dec$76: cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$74: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$75 leaq 15584(%rsp), %rax leaq 1408(%rsp), %rcx movq $0, %rdx cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$69 Ljade_kem_kyber_kyber768_amd64_avx2_dec$70: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$73 movw %si, (%rax,%r9,2) incq %r9 Ljade_kem_kyber_kyber768_amd64_avx2_dec$73: cmpq $256, %r9 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$71 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$71 movw %r11w, (%rax,%r9,2) incq %r9 Ljade_kem_kyber_kyber768_amd64_avx2_dec$72: Ljade_kem_kyber_kyber768_amd64_avx2_dec$71: cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$69: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$70 leaq 16096(%rsp), %rax leaq 1920(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$64 Ljade_kem_kyber_kyber768_amd64_avx2_dec$65: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$68 movw %si, (%rax,%r13,2) incq %r13 Ljade_kem_kyber_kyber768_amd64_avx2_dec$68: cmpq $256, %r13 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$66 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$66 movw %r11w, (%rax,%r13,2) incq %r13 Ljade_kem_kyber_kyber768_amd64_avx2_dec$67: Ljade_kem_kyber_kyber768_amd64_avx2_dec$66: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$64: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$65 cmpq $255, %rdi setbe %al cmpq $255, %r8 setbe %cl orb %cl, %al cmpq $255, %r9 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl Ljade_kem_kyber_kyber768_amd64_avx2_dec$62: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$63 vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 384(%rsp) movb $2, 416(%rsp) movb $2, 417(%rsp) leaq 384(%rsp), %rax vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm0, 224(%rsp) vmovdqu %ymm0, 256(%rsp) vmovdqu %ymm0, 288(%rsp) vmovdqu %ymm0, 320(%rsp) vmovdqu %ymm0, 352(%rsp) vpbroadcastq (%rax), %ymm5 movq 8(%rax), %rcx movq glob_data + 6208(%rip), %rdx movq %rcx, 160(%rsp,%rdx,8) movq 16(%rax), %rcx movq glob_data + 6216(%rip), %rdx movq %rcx, 160(%rsp,%rdx,8) movq 24(%rax), %rcx movq glob_data + 6224(%rip), %rdx movq %rcx, 160(%rsp,%rdx,8) movb 32(%rax), %cl movq glob_data + 6232(%rip), %rdx shlq $3, %rdx movb %cl, 160(%rsp,%rdx) movb 33(%rax), %al incq %rdx movb %al, 160(%rsp,%rdx) incq %rdx movb $31, 160(%rsp,%rdx) movq glob_data + 6360(%rip), %rax shlq $3, %rax movq $167, %rcx andq $7, %rcx addq %rcx, %rax movb $-128, 160(%rsp,%rax) vmovdqu 192(%rsp), %ymm0 vmovdqu 224(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 288(%rsp), %ymm6 vmovdqu 320(%rsp), %ymm3 vmovdqu 352(%rsp), %ymm4 leaq 384(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$61: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$61 vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 552(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$60: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$60 vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 720(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$59: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$59 vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) leaq 16608(%rsp), %rbx leaq 384(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$58(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$58: cmpq $255, %r13 setbe %al vmovdqu 160(%rsp), %ymm6 vmovdqu 192(%rsp), %ymm0 vmovdqu 224(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 288(%rsp), %ymm3 vmovdqu 320(%rsp), %ymm4 vmovdqu 352(%rsp), %ymm5 jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$50 Ljade_kem_kyber_kyber768_amd64_avx2_dec$51: leaq 384(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$57: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$57 vmovdqu %ymm6, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm3, 288(%rsp) vmovdqu %ymm4, 320(%rsp) vmovdqu %ymm5, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 16608(%rsp), %rax leaq 384(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %dil testb %dil, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$52 Ljade_kem_kyber_kyber768_amd64_avx2_dec$53: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw (%rcx,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$56 movw %si, (%rax,%r13,2) incq %r13 Ljade_kem_kyber_kyber768_amd64_avx2_dec$56: cmpq $256, %r13 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$54 cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$54 movw %r8w, (%rax,%r13,2) incq %r13 Ljade_kem_kyber_kyber768_amd64_avx2_dec$55: Ljade_kem_kyber_kyber768_amd64_avx2_dec$54: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %dil testb %dil, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$52: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$53 cmpq $255, %r13 setbe %al Ljade_kem_kyber_kyber768_amd64_avx2_dec$50: cmpb $0, %al jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$51 leaq 12512(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$49(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$49: leaq 13024(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$48(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$48: leaq 13536(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$47(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$47: leaq 14048(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$46(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$46: leaq 14560(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$45(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$45: leaq 15072(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$44(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$44: leaq 15584(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$43(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$43: leaq 16096(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$42(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$42: leaq 16608(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$41(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$41: movq 17152(%rsp), %r10 movb $0, %cl leaq 7904(%rsp), %rax leaq 8416(%rsp), %rdi leaq 8928(%rsp), %r8 leaq 9440(%rsp), %r9 leaq -1472(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$40(%rip), %rdx movq %rdx, 1464(%rsp) jmp L_poly_getnoise_eta1_4x$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$40: leaq 1472(%rsp), %rsp movb $4, %cl leaq 9952(%rsp), %rax leaq 10464(%rsp), %rdi leaq 2944(%rsp), %r8 leaq 10976(%rsp), %r9 leaq -1472(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$39(%rip), %rdx movq %rdx, 1464(%rsp) jmp L_poly_getnoise_eta1_4x$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$39: leaq 1472(%rsp), %rsp leaq 7904(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$38(%rip), %rdi jmp L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$38: leaq 8416(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$37(%rip), %rdi jmp L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$37: leaq 8928(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$36(%rip), %rdi jmp L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$36: leaq 10976(%rsp), %rcx leaq 12512(%rsp), %rsi leaq 7904(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$35(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$35: leaq 2432(%rsp), %rcx leaq 13024(%rsp), %rsi leaq 8416(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$34(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$34: leaq 10976(%rsp), %rcx leaq 2432(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$33(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$33: leaq 2432(%rsp), %rcx leaq 13536(%rsp), %rsi leaq 8928(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$32(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$32: leaq 10976(%rsp), %rcx leaq 2432(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$31(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$31: leaq 11488(%rsp), %rcx leaq 14048(%rsp), %rsi leaq 7904(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$30(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$30: leaq 2432(%rsp), %rcx leaq 14560(%rsp), %rsi leaq 8416(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$29(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$29: leaq 11488(%rsp), %rcx leaq 2432(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$28(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$28: leaq 2432(%rsp), %rcx leaq 15072(%rsp), %rsi leaq 8928(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$27(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$27: leaq 11488(%rsp), %rcx leaq 2432(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$26(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$26: leaq 12000(%rsp), %rcx leaq 15584(%rsp), %rsi leaq 7904(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$25(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$25: leaq 2432(%rsp), %rcx leaq 16096(%rsp), %rsi leaq 8416(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$24(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$24: leaq 12000(%rsp), %rcx leaq 2432(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$23(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$23: leaq 2432(%rsp), %rcx leaq 16608(%rsp), %rsi leaq 8928(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$22(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$22: leaq 12000(%rsp), %rcx leaq 2432(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$21(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$21: leaq 2432(%rsp), %rcx leaq 6368(%rsp), %rsi leaq 7904(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$20(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$20: leaq 3968(%rsp), %rcx leaq 6880(%rsp), %rsi leaq 8416(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$19(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$19: leaq 2432(%rsp), %rcx leaq 3968(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$18(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$18: leaq 3968(%rsp), %rcx leaq 7392(%rsp), %rsi leaq 8928(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$17(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$17: leaq 2432(%rsp), %rcx leaq 3968(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$16(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$16: leaq 10976(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$15(%rip), %rdi jmp L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$15: leaq 11488(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$14(%rip), %rdi jmp L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$14: leaq 12000(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$13(%rip), %rdi jmp L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$13: leaq 2432(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$12(%rip), %rdi jmp L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$12: leaq 10976(%rsp), %rcx leaq 9440(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$11(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$11: leaq 11488(%rsp), %rcx leaq 9952(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$10(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$10: leaq 12000(%rsp), %rcx leaq 10464(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$9(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$9: leaq 2432(%rsp), %rcx leaq 2944(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$8(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$8: leaq 2432(%rsp), %rcx leaq 3456(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$7(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$7: leaq 10976(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 11488(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 12000(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 2432(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) movq 17144(%rsp), %rax movq %rax, %rdx leaq 10976(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$6(%rip), %r8 jmp L_poly_csubq$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$6: leaq 11488(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$5(%rip), %r8 jmp L_poly_csubq$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$5: leaq 12000(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$4(%rip), %r8 jmp L_poly_csubq$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$4: leaq glob_data + 384(%rip), %rcx vmovdqu (%rcx), %ymm0 vpsllw $3, %ymm0, %ymm1 vpbroadcastw glob_data + 6422(%rip), %ymm2 vpbroadcastw glob_data + 6420(%rip), %ymm3 vpbroadcastw glob_data + 6418(%rip), %ymm4 vpbroadcastq glob_data + 6184(%rip), %ymm5 vpbroadcastq glob_data + 6176(%rip), %ymm6 vmovdqu glob_data + 32(%rip), %ymm7 vmovdqu 10976(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, (%rdx) vpextrd $0, %xmm8, 16(%rdx) vmovdqu 11008(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 20(%rdx) vpextrd $0, %xmm8, 36(%rdx) vmovdqu 11040(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 40(%rdx) vpextrd $0, %xmm8, 56(%rdx) vmovdqu 11072(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 60(%rdx) vpextrd $0, %xmm8, 76(%rdx) vmovdqu 11104(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 80(%rdx) vpextrd $0, %xmm8, 96(%rdx) vmovdqu 11136(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 100(%rdx) vpextrd $0, %xmm8, 116(%rdx) vmovdqu 11168(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 120(%rdx) vpextrd $0, %xmm8, 136(%rdx) vmovdqu 11200(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 140(%rdx) vpextrd $0, %xmm8, 156(%rdx) vmovdqu 11232(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 160(%rdx) vpextrd $0, %xmm8, 176(%rdx) vmovdqu 11264(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 180(%rdx) vpextrd $0, %xmm8, 196(%rdx) vmovdqu 11296(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 200(%rdx) vpextrd $0, %xmm8, 216(%rdx) vmovdqu 11328(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 220(%rdx) vpextrd $0, %xmm8, 236(%rdx) vmovdqu 11360(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 240(%rdx) vpextrd $0, %xmm8, 256(%rdx) vmovdqu 11392(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 260(%rdx) vpextrd $0, %xmm8, 276(%rdx) vmovdqu 11424(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 280(%rdx) vpextrd $0, %xmm8, 296(%rdx) vmovdqu 11456(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 300(%rdx) vpextrd $0, %xmm8, 316(%rdx) vmovdqu 11488(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 320(%rdx) vpextrd $0, %xmm8, 336(%rdx) vmovdqu 11520(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 340(%rdx) vpextrd $0, %xmm8, 356(%rdx) vmovdqu 11552(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 360(%rdx) vpextrd $0, %xmm8, 376(%rdx) vmovdqu 11584(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 380(%rdx) vpextrd $0, %xmm8, 396(%rdx) vmovdqu 11616(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 400(%rdx) vpextrd $0, %xmm8, 416(%rdx) vmovdqu 11648(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 420(%rdx) vpextrd $0, %xmm8, 436(%rdx) vmovdqu 11680(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 440(%rdx) vpextrd $0, %xmm8, 456(%rdx) vmovdqu 11712(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 460(%rdx) vpextrd $0, %xmm8, 476(%rdx) vmovdqu 11744(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 480(%rdx) vpextrd $0, %xmm8, 496(%rdx) vmovdqu 11776(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 500(%rdx) vpextrd $0, %xmm8, 516(%rdx) vmovdqu 11808(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 520(%rdx) vpextrd $0, %xmm8, 536(%rdx) vmovdqu 11840(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 540(%rdx) vpextrd $0, %xmm8, 556(%rdx) vmovdqu 11872(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 560(%rdx) vpextrd $0, %xmm8, 576(%rdx) vmovdqu 11904(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 580(%rdx) vpextrd $0, %xmm8, 596(%rdx) vmovdqu 11936(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 600(%rdx) vpextrd $0, %xmm8, 616(%rdx) vmovdqu 11968(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 620(%rdx) vpextrd $0, %xmm8, 636(%rdx) vmovdqu 12000(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 640(%rdx) vpextrd $0, %xmm8, 656(%rdx) vmovdqu 12032(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 660(%rdx) vpextrd $0, %xmm8, 676(%rdx) vmovdqu 12064(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 680(%rdx) vpextrd $0, %xmm8, 696(%rdx) vmovdqu 12096(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 700(%rdx) vpextrd $0, %xmm8, 716(%rdx) vmovdqu 12128(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 720(%rdx) vpextrd $0, %xmm8, 736(%rdx) vmovdqu 12160(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 740(%rdx) vpextrd $0, %xmm8, 756(%rdx) vmovdqu 12192(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 760(%rdx) vpextrd $0, %xmm8, 776(%rdx) vmovdqu 12224(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 780(%rdx) vpextrd $0, %xmm8, 796(%rdx) vmovdqu 12256(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 800(%rdx) vpextrd $0, %xmm8, 816(%rdx) vmovdqu 12288(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 820(%rdx) vpextrd $0, %xmm8, 836(%rdx) vmovdqu 12320(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 840(%rdx) vpextrd $0, %xmm8, 856(%rdx) vmovdqu 12352(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 860(%rdx) vpextrd $0, %xmm8, 876(%rdx) vmovdqu 12384(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 880(%rdx) vpextrd $0, %xmm8, 896(%rdx) vmovdqu 12416(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 900(%rdx) vpextrd $0, %xmm8, 916(%rdx) vmovdqu 12448(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 920(%rdx) vpextrd $0, %xmm8, 936(%rdx) vmovdqu 12480(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm1 vpaddw %ymm2, %ymm8, %ymm2 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm0 vpsubw %ymm2, %ymm1, %ymm2 vpandn %ymm2, %ymm1, %ymm1 vpsrlw $15, %ymm1, %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vpmulhrsw %ymm3, %ymm0, %ymm0 vpand %ymm4, %ymm0, %ymm0 vpmaddwd %ymm5, %ymm0, %ymm0 vpsllvd %ymm6, %ymm0, %ymm0 vpsrlq $12, %ymm0, %ymm0 vpshufb %ymm7, %ymm0, %ymm0 vmovdqu %xmm0, %xmm1 vextracti128 $1, %ymm0, %xmm0 vpblendw $-32, %xmm0, %xmm1, %xmm1 vmovdqu %xmm1, 940(%rdx) vpextrd $0, %xmm0, 956(%rdx) leaq 960(%rax), %rax leaq 2432(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$3(%rip), %rsi jmp L_poly_compress_1$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$3: movq 17128(%rsp), %r8 leaq 5280(%rsp), %rax movq $0, %rcx movq $1, %rdx vpxor %ymm0, %ymm0, %ymm0 vmovdqu (%rax), %ymm1 vmovdqu (%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 32(%rax), %ymm1 vmovdqu 32(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 64(%rax), %ymm1 vmovdqu 64(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 96(%rax), %ymm1 vmovdqu 96(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 128(%rax), %ymm1 vmovdqu 128(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 160(%rax), %ymm1 vmovdqu 160(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 192(%rax), %ymm1 vmovdqu 192(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 224(%rax), %ymm1 vmovdqu 224(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 256(%rax), %ymm1 vmovdqu 256(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 288(%rax), %ymm1 vmovdqu 288(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 320(%rax), %ymm1 vmovdqu 320(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 352(%rax), %ymm1 vmovdqu 352(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 384(%rax), %ymm1 vmovdqu 384(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 416(%rax), %ymm1 vmovdqu 416(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 448(%rax), %ymm1 vmovdqu 448(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 480(%rax), %ymm1 vmovdqu 480(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 512(%rax), %ymm1 vmovdqu 512(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 544(%rax), %ymm1 vmovdqu 544(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 576(%rax), %ymm1 vmovdqu 576(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 608(%rax), %ymm1 vmovdqu 608(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 640(%rax), %ymm1 vmovdqu 640(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 672(%rax), %ymm1 vmovdqu 672(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 704(%rax), %ymm1 vmovdqu 704(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 736(%rax), %ymm1 vmovdqu 736(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 768(%rax), %ymm1 vmovdqu 768(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 800(%rax), %ymm1 vmovdqu 800(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 832(%rax), %ymm1 vmovdqu 832(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 864(%rax), %ymm1 vmovdqu 864(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 896(%rax), %ymm1 vmovdqu 896(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 928(%rax), %ymm1 vmovdqu 928(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 960(%rax), %ymm1 vmovdqu 960(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 992(%rax), %ymm1 vmovdqu 992(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 1024(%rax), %ymm1 vmovdqu 1024(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 1056(%rax), %ymm1 vmovdqu 1056(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vptest %ymm0, %ymm0 cmovne %rdx, %rcx negq %rcx shrq $63, %rcx movq 17136(%rsp), %rax addq $64, %rax addq $2304, %rax leaq 96(%rsp), %rdx negq %rcx movq %rcx, 17136(%rsp) vpbroadcastq 17136(%rsp), %ymm0 vmovdqu (%rdx), %ymm1 vmovdqu (%rax), %ymm2 vpblendvb %ymm0, %ymm2, %ymm1, %ymm0 vmovdqu %ymm0, (%rdx) movq $1088, %rdi leaq 128(%rsp), %rax leaq -256(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$2(%rip), %rcx movq %rcx, 224(%rsp) jmp L_sha3_256$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$2: leaq 256(%rsp), %rsp movq 17120(%rsp), %rdx movq $32, %rcx leaq 96(%rsp), %rax leaq -256(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$1(%rip), %rsi movq %rsi, 224(%rsp) jmp L_shake256_64$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$1: leaq 256(%rsp), %rsp xorq %rax, %rax movq 17160(%rsp), %rbx movq 17168(%rsp), %rbp movq 17176(%rsp), %r12 movq 17184(%rsp), %r13 movq 17192(%rsp), %rsp ret _jade_kem_kyber_kyber768_amd64_avx2_enc: jade_kem_kyber_kyber768_amd64_avx2_enc: movq %rsp, %rax leaq -72(%rsp), %rsp andq $-32, %rsp movq %rax, 64(%rsp) movq %rbx, 32(%rsp) movq %rbp, 40(%rsp) movq %r12, 48(%rsp) movq %r13, 56(%rsp) movq %rdi, %rbp movq %rsi, %r12 movq %rdx, %rbx movq %rsp, %rdi movq $32, %rsi call __jasmin_syscall_randombytes__ movq %rsp, %rcx leaq -16064(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_enc$1(%rip), %rax movq %rax, 16056(%rsp) jmp L__crypto_kem_enc_derand_jazz$1 Ljade_kem_kyber_kyber768_amd64_avx2_enc$1: leaq 16064(%rsp), %rsp xorq %rax, %rax movq 32(%rsp), %rbx movq 40(%rsp), %rbp movq 48(%rsp), %r12 movq 56(%rsp), %r13 movq 64(%rsp), %rsp ret _jade_kem_kyber_kyber768_amd64_avx2_enc_derand: jade_kem_kyber_kyber768_amd64_avx2_enc_derand: movq %rsp, %rax leaq -72(%rsp), %rsp andq $-32, %rsp movq %rax, 64(%rsp) movq %rbx, 32(%rsp) movq %rbp, 40(%rsp) movq %r12, 48(%rsp) movq %r13, 56(%rsp) movq %rdi, %rbp movq %rsi, %r12 movq %rdx, %rbx movq %rsp, %rax movb (%rcx), %dl movb %dl, (%rax) movb 1(%rcx), %dl movb %dl, 1(%rax) movb 2(%rcx), %dl movb %dl, 2(%rax) movb 3(%rcx), %dl movb %dl, 3(%rax) movb 4(%rcx), %dl movb %dl, 4(%rax) movb 5(%rcx), %dl movb %dl, 5(%rax) movb 6(%rcx), %dl movb %dl, 6(%rax) movb 7(%rcx), %dl movb %dl, 7(%rax) movb 8(%rcx), %dl movb %dl, 8(%rax) movb 9(%rcx), %dl movb %dl, 9(%rax) movb 10(%rcx), %dl movb %dl, 10(%rax) movb 11(%rcx), %dl movb %dl, 11(%rax) movb 12(%rcx), %dl movb %dl, 12(%rax) movb 13(%rcx), %dl movb %dl, 13(%rax) movb 14(%rcx), %dl movb %dl, 14(%rax) movb 15(%rcx), %dl movb %dl, 15(%rax) movb 16(%rcx), %dl movb %dl, 16(%rax) movb 17(%rcx), %dl movb %dl, 17(%rax) movb 18(%rcx), %dl movb %dl, 18(%rax) movb 19(%rcx), %dl movb %dl, 19(%rax) movb 20(%rcx), %dl movb %dl, 20(%rax) movb 21(%rcx), %dl movb %dl, 21(%rax) movb 22(%rcx), %dl movb %dl, 22(%rax) movb 23(%rcx), %dl movb %dl, 23(%rax) movb 24(%rcx), %dl movb %dl, 24(%rax) movb 25(%rcx), %dl movb %dl, 25(%rax) movb 26(%rcx), %dl movb %dl, 26(%rax) movb 27(%rcx), %dl movb %dl, 27(%rax) movb 28(%rcx), %dl movb %dl, 28(%rax) movb 29(%rcx), %dl movb %dl, 29(%rax) movb 30(%rcx), %dl movb %dl, 30(%rax) movb 31(%rcx), %cl movb %cl, 31(%rax) movq %rsp, %rcx leaq -16064(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_enc_derand$1(%rip), %rax movq %rax, 16056(%rsp) jmp L__crypto_kem_enc_derand_jazz$1 Ljade_kem_kyber_kyber768_amd64_avx2_enc_derand$1: leaq 16064(%rsp), %rsp xorq %rax, %rax movq 32(%rsp), %rbx movq 40(%rsp), %rbp movq 48(%rsp), %r12 movq 56(%rsp), %r13 movq 64(%rsp), %rsp ret _jade_kem_kyber_kyber768_amd64_avx2_keypair: jade_kem_kyber_kyber768_amd64_avx2_keypair: movq %rsp, %rax leaq -104(%rsp), %rsp andq $-32, %rsp movq %rax, 96(%rsp) movq %rbx, 64(%rsp) movq %rbp, 72(%rsp) movq %r12, 80(%rsp) movq %r13, 88(%rsp) movq %rdi, %rbp movq %rsi, %rbx movq %rsp, %rdi movq $64, %rsi call __jasmin_syscall_randombytes__ movq %rsp, %rax leaq -13024(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_keypair$1(%rip), %rcx movq %rcx, 13000(%rsp) jmp L__crypto_kem_keypair_derand_jazz$1 Ljade_kem_kyber_kyber768_amd64_avx2_keypair$1: leaq 13024(%rsp), %rsp xorq %rax, %rax movq 64(%rsp), %rbx movq 72(%rsp), %rbp movq 80(%rsp), %r12 movq 88(%rsp), %r13 movq 96(%rsp), %rsp ret _jade_kem_kyber_kyber768_amd64_avx2_keypair_derand: jade_kem_kyber_kyber768_amd64_avx2_keypair_derand: movq %rsp, %rax leaq -104(%rsp), %rsp andq $-32, %rsp movq %rax, 96(%rsp) movq %rbx, 64(%rsp) movq %rbp, 72(%rsp) movq %r12, 80(%rsp) movq %r13, 88(%rsp) movq %rdi, %rbp movq %rsi, %rbx movq %rsp, %rax movb (%rdx), %cl movb %cl, (%rax) movb 1(%rdx), %cl movb %cl, 1(%rax) movb 2(%rdx), %cl movb %cl, 2(%rax) movb 3(%rdx), %cl movb %cl, 3(%rax) movb 4(%rdx), %cl movb %cl, 4(%rax) movb 5(%rdx), %cl movb %cl, 5(%rax) movb 6(%rdx), %cl movb %cl, 6(%rax) movb 7(%rdx), %cl movb %cl, 7(%rax) movb 8(%rdx), %cl movb %cl, 8(%rax) movb 9(%rdx), %cl movb %cl, 9(%rax) movb 10(%rdx), %cl movb %cl, 10(%rax) movb 11(%rdx), %cl movb %cl, 11(%rax) movb 12(%rdx), %cl movb %cl, 12(%rax) movb 13(%rdx), %cl movb %cl, 13(%rax) movb 14(%rdx), %cl movb %cl, 14(%rax) movb 15(%rdx), %cl movb %cl, 15(%rax) movb 16(%rdx), %cl movb %cl, 16(%rax) movb 17(%rdx), %cl movb %cl, 17(%rax) movb 18(%rdx), %cl movb %cl, 18(%rax) movb 19(%rdx), %cl movb %cl, 19(%rax) movb 20(%rdx), %cl movb %cl, 20(%rax) movb 21(%rdx), %cl movb %cl, 21(%rax) movb 22(%rdx), %cl movb %cl, 22(%rax) movb 23(%rdx), %cl movb %cl, 23(%rax) movb 24(%rdx), %cl movb %cl, 24(%rax) movb 25(%rdx), %cl movb %cl, 25(%rax) movb 26(%rdx), %cl movb %cl, 26(%rax) movb 27(%rdx), %cl movb %cl, 27(%rax) movb 28(%rdx), %cl movb %cl, 28(%rax) movb 29(%rdx), %cl movb %cl, 29(%rax) movb 30(%rdx), %cl movb %cl, 30(%rax) movb 31(%rdx), %cl movb %cl, 31(%rax) movb 32(%rdx), %cl movb %cl, 32(%rax) movb 33(%rdx), %cl movb %cl, 33(%rax) movb 34(%rdx), %cl movb %cl, 34(%rax) movb 35(%rdx), %cl movb %cl, 35(%rax) movb 36(%rdx), %cl movb %cl, 36(%rax) movb 37(%rdx), %cl movb %cl, 37(%rax) movb 38(%rdx), %cl movb %cl, 38(%rax) movb 39(%rdx), %cl movb %cl, 39(%rax) movb 40(%rdx), %cl movb %cl, 40(%rax) movb 41(%rdx), %cl movb %cl, 41(%rax) movb 42(%rdx), %cl movb %cl, 42(%rax) movb 43(%rdx), %cl movb %cl, 43(%rax) movb 44(%rdx), %cl movb %cl, 44(%rax) movb 45(%rdx), %cl movb %cl, 45(%rax) movb 46(%rdx), %cl movb %cl, 46(%rax) movb 47(%rdx), %cl movb %cl, 47(%rax) movb 48(%rdx), %cl movb %cl, 48(%rax) movb 49(%rdx), %cl movb %cl, 49(%rax) movb 50(%rdx), %cl movb %cl, 50(%rax) movb 51(%rdx), %cl movb %cl, 51(%rax) movb 52(%rdx), %cl movb %cl, 52(%rax) movb 53(%rdx), %cl movb %cl, 53(%rax) movb 54(%rdx), %cl movb %cl, 54(%rax) movb 55(%rdx), %cl movb %cl, 55(%rax) movb 56(%rdx), %cl movb %cl, 56(%rax) movb 57(%rdx), %cl movb %cl, 57(%rax) movb 58(%rdx), %cl movb %cl, 58(%rax) movb 59(%rdx), %cl movb %cl, 59(%rax) movb 60(%rdx), %cl movb %cl, 60(%rax) movb 61(%rdx), %cl movb %cl, 61(%rax) movb 62(%rdx), %cl movb %cl, 62(%rax) movb 63(%rdx), %cl movb %cl, 63(%rax) movq %rsp, %rax leaq -13024(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_keypair_derand$1(%rip), %rcx movq %rcx, 13000(%rsp) jmp L__crypto_kem_keypair_derand_jazz$1 Ljade_kem_kyber_kyber768_amd64_avx2_keypair_derand$1: leaq 13024(%rsp), %rsp xorq %rax, %rax movq 64(%rsp), %rbx movq 72(%rsp), %rbp movq 80(%rsp), %r12 movq 88(%rsp), %r13 movq 96(%rsp), %rsp ret L__crypto_kem_enc_derand_jazz$1: movq %rbx, 16032(%rsp) movq %rbp, 16040(%rsp) movq %r12, 16048(%rsp) leaq 32(%rsp), %rax leaq -256(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$133(%rip), %rdx movq %rdx, 224(%rsp) jmp L_sha3_256_32$1 L__crypto_kem_enc_derand_jazz$133: leaq 256(%rsp), %rsp movq 16032(%rsp), %r8 movq $1184, %rdi leaq 64(%rsp), %rax leaq -256(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$132(%rip), %rcx movq %rcx, 224(%rsp) jmp L_sha3_256$1 L__crypto_kem_enc_derand_jazz$132: leaq 256(%rsp), %rsp leaq 96(%rsp), %rax leaq 32(%rsp), %rcx leaq -256(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$131(%rip), %rdx movq %rdx, 224(%rsp) jmp L_sha3_512_64$1 L__crypto_kem_enc_derand_jazz$131: leaq 256(%rsp), %rsp movq 16032(%rsp), %rcx leaq 32(%rsp), %rax leaq 128(%rsp), %rdx movq %rcx, %rdi leaq 5280(%rsp), %r8 leaq L__crypto_kem_enc_derand_jazz$130(%rip), %r10 jmp L_poly_frombytes$1 L__crypto_kem_enc_derand_jazz$130: addq $384, %rdi leaq 5792(%rsp), %r8 leaq L__crypto_kem_enc_derand_jazz$129(%rip), %r10 jmp L_poly_frombytes$1 L__crypto_kem_enc_derand_jazz$129: addq $384, %rdi leaq 6304(%rsp), %r8 leaq L__crypto_kem_enc_derand_jazz$128(%rip), %r10 jmp L_poly_frombytes$1 L__crypto_kem_enc_derand_jazz$128: movq $0, %rsi addq $1152, %rcx jmp L__crypto_kem_enc_derand_jazz$126 L__crypto_kem_enc_derand_jazz$127: movq (%rcx), %rdi movq %rdi, (%rsp,%rsi,8) addq $8, %rcx incq %rsi L__crypto_kem_enc_derand_jazz$126: cmpq $4, %rsi jb L__crypto_kem_enc_derand_jazz$127 leaq 2432(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$125(%rip), %r8 jmp L_poly_frommsg_1$1 L__crypto_kem_enc_derand_jazz$125: movq %rdx, 16032(%rsp) vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 384(%rsp) vmovdqu %ymm0, 896(%rsp) vmovdqu %ymm0, 1408(%rsp) vmovdqu %ymm0, 1920(%rsp) vmovdqu %ymm0, (%rsp) movb $0, 416(%rsp) movb $0, 417(%rsp) movb $0, 928(%rsp) movb $1, 929(%rsp) movb $0, 1440(%rsp) movb $2, 1441(%rsp) movb $1, 1952(%rsp) movb $0, 1953(%rsp) leaq 4480(%rsp), %rax leaq 384(%rsp), %rcx leaq 896(%rsp), %rdx leaq 1408(%rsp), %rsi leaq 1920(%rsp), %rdi leaq -8(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$124(%rip), %r8 movq %r8, (%rsp) jmp L_shake128_absorb4x_34$1 L__crypto_kem_enc_derand_jazz$124: leaq 8(%rsp), %rsp leaq 4480(%rsp), %rax leaq 384(%rsp), %rdi leaq 896(%rsp), %r8 leaq 1408(%rsp), %r9 leaq 1920(%rsp), %r10 movq %rdi, %r11 movq %r8, %rbx movq %r9, %rbp movq %r10, %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$123(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$123: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 168(%rdi), %r11 leaq 168(%r8), %rbx leaq 168(%r9), %rbp leaq 168(%r10), %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$122(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$122: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 336(%rdi), %rdi leaq 336(%r8), %r8 leaq 336(%r9), %r9 leaq 336(%r10), %r10 leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$121(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$121: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%rdi) vmovhpd %xmm1, (%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%r9) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%rdi) vmovhpd %xmm1, 8(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%r9) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%rdi) vmovhpd %xmm1, 16(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%r9) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%rdi) vmovhpd %xmm1, 24(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%r9) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%rdi) vmovhpd %xmm1, 32(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%r9) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%rdi) vmovhpd %xmm1, 40(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%r9) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%rdi) vmovhpd %xmm1, 48(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%r9) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%rdi) vmovhpd %xmm1, 56(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%r9) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%rdi) vmovhpd %xmm1, 64(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%r9) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%rdi) vmovhpd %xmm1, 72(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%r9) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%rdi) vmovhpd %xmm1, 80(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%r9) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%rdi) vmovhpd %xmm1, 88(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%r9) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%rdi) vmovhpd %xmm1, 96(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%r9) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%rdi) vmovhpd %xmm1, 104(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%r9) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%rdi) vmovhpd %xmm1, 112(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%r9) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%rdi) vmovhpd %xmm1, 120(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%r9) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%rdi) vmovhpd %xmm1, 128(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%r9) vmovhpd %xmm0, 128(%r10) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%rdi) vmovhpd %xmm1, 136(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%r9) vmovhpd %xmm0, 136(%r10) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%rdi) vmovhpd %xmm1, 144(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%r9) vmovhpd %xmm0, 144(%r10) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%rdi) vmovhpd %xmm1, 152(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%r9) vmovhpd %xmm0, 152(%r10) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%rdi) vmovhpd %xmm1, 160(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%r9) vmovhpd %xmm0, 160(%r10) leaq 11424(%rsp), %rbx leaq 384(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$120(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$120: movq %r13, %r9 leaq 11936(%rsp), %rbx leaq 896(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$119(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$119: movq %r13, %rdi leaq 12448(%rsp), %rbx leaq 1408(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$118(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$118: movq %r13, %r8 leaq 12960(%rsp), %rbx leaq 1920(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$117(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$117: cmpq $255, %r9 setbe %al cmpq $255, %rdi setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl jmp L__crypto_kem_enc_derand_jazz$94 L__crypto_kem_enc_derand_jazz$95: leaq 4480(%rsp), %rax leaq 384(%rsp), %r10 leaq 896(%rsp), %r11 leaq 1408(%rsp), %rbx leaq 1920(%rsp), %rbp leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$116(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$116: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r10) vmovhpd %xmm1, (%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbx) vmovhpd %xmm0, (%rbp) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r10) vmovhpd %xmm1, 8(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbx) vmovhpd %xmm0, 8(%rbp) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r10) vmovhpd %xmm1, 16(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbx) vmovhpd %xmm0, 16(%rbp) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r10) vmovhpd %xmm1, 24(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbx) vmovhpd %xmm0, 24(%rbp) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r10) vmovhpd %xmm1, 32(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbx) vmovhpd %xmm0, 32(%rbp) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r10) vmovhpd %xmm1, 40(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbx) vmovhpd %xmm0, 40(%rbp) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r10) vmovhpd %xmm1, 48(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbx) vmovhpd %xmm0, 48(%rbp) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r10) vmovhpd %xmm1, 56(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbx) vmovhpd %xmm0, 56(%rbp) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r10) vmovhpd %xmm1, 64(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbx) vmovhpd %xmm0, 64(%rbp) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r10) vmovhpd %xmm1, 72(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbx) vmovhpd %xmm0, 72(%rbp) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r10) vmovhpd %xmm1, 80(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbx) vmovhpd %xmm0, 80(%rbp) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r10) vmovhpd %xmm1, 88(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbx) vmovhpd %xmm0, 88(%rbp) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r10) vmovhpd %xmm1, 96(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbx) vmovhpd %xmm0, 96(%rbp) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r10) vmovhpd %xmm1, 104(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbx) vmovhpd %xmm0, 104(%rbp) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r10) vmovhpd %xmm1, 112(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbx) vmovhpd %xmm0, 112(%rbp) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r10) vmovhpd %xmm1, 120(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbx) vmovhpd %xmm0, 120(%rbp) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r10) vmovhpd %xmm1, 128(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbx) vmovhpd %xmm0, 128(%rbp) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r10) vmovhpd %xmm1, 136(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbx) vmovhpd %xmm0, 136(%rbp) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r10) vmovhpd %xmm1, 144(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbx) vmovhpd %xmm0, 144(%rbp) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r10) vmovhpd %xmm1, 152(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbx) vmovhpd %xmm0, 152(%rbp) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r10) vmovhpd %xmm1, 160(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbx) vmovhpd %xmm0, 160(%rbp) leaq 11424(%rsp), %rax leaq 384(%rsp), %rcx movq $0, %rdx cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$111 L__crypto_kem_enc_derand_jazz$112: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$115 movw %si, (%rax,%r9,2) incq %r9 L__crypto_kem_enc_derand_jazz$115: cmpq $256, %r9 jnb L__crypto_kem_enc_derand_jazz$113 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$113 movw %r11w, (%rax,%r9,2) incq %r9 L__crypto_kem_enc_derand_jazz$114: L__crypto_kem_enc_derand_jazz$113: cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$111: jne L__crypto_kem_enc_derand_jazz$112 leaq 11936(%rsp), %rax leaq 896(%rsp), %rcx movq $0, %rdx cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$106 L__crypto_kem_enc_derand_jazz$107: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$110 movw %si, (%rax,%rdi,2) incq %rdi L__crypto_kem_enc_derand_jazz$110: cmpq $256, %rdi jnb L__crypto_kem_enc_derand_jazz$108 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$108 movw %r11w, (%rax,%rdi,2) incq %rdi L__crypto_kem_enc_derand_jazz$109: L__crypto_kem_enc_derand_jazz$108: cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$106: jne L__crypto_kem_enc_derand_jazz$107 leaq 12448(%rsp), %rax leaq 1408(%rsp), %rcx movq $0, %rdx cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$101 L__crypto_kem_enc_derand_jazz$102: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$105 movw %si, (%rax,%r8,2) incq %r8 L__crypto_kem_enc_derand_jazz$105: cmpq $256, %r8 jnb L__crypto_kem_enc_derand_jazz$103 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$103 movw %r11w, (%rax,%r8,2) incq %r8 L__crypto_kem_enc_derand_jazz$104: L__crypto_kem_enc_derand_jazz$103: cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$101: jne L__crypto_kem_enc_derand_jazz$102 leaq 12960(%rsp), %rax leaq 1920(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$96 L__crypto_kem_enc_derand_jazz$97: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$100 movw %si, (%rax,%r13,2) incq %r13 L__crypto_kem_enc_derand_jazz$100: cmpq $256, %r13 jnb L__crypto_kem_enc_derand_jazz$98 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$98 movw %r11w, (%rax,%r13,2) incq %r13 L__crypto_kem_enc_derand_jazz$99: L__crypto_kem_enc_derand_jazz$98: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$96: jne L__crypto_kem_enc_derand_jazz$97 cmpq $255, %r9 setbe %al cmpq $255, %rdi setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl L__crypto_kem_enc_derand_jazz$94: jne L__crypto_kem_enc_derand_jazz$95 vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 384(%rsp) vmovdqu %ymm0, 896(%rsp) vmovdqu %ymm0, 1408(%rsp) vmovdqu %ymm0, 1920(%rsp) vmovdqu %ymm0, (%rsp) movb $1, 416(%rsp) movb $1, 417(%rsp) movb $1, 928(%rsp) movb $2, 929(%rsp) movb $2, 1440(%rsp) movb $0, 1441(%rsp) movb $2, 1952(%rsp) movb $1, 1953(%rsp) leaq 4480(%rsp), %rax leaq 384(%rsp), %rcx leaq 896(%rsp), %rdx leaq 1408(%rsp), %rsi leaq 1920(%rsp), %rdi leaq -8(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$93(%rip), %r8 movq %r8, (%rsp) jmp L_shake128_absorb4x_34$1 L__crypto_kem_enc_derand_jazz$93: leaq 8(%rsp), %rsp leaq 4480(%rsp), %rax leaq 384(%rsp), %rdi leaq 896(%rsp), %r8 leaq 1408(%rsp), %r9 leaq 1920(%rsp), %r10 movq %rdi, %r11 movq %r8, %rbx movq %r9, %rbp movq %r10, %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$92(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$92: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 168(%rdi), %r11 leaq 168(%r8), %rbx leaq 168(%r9), %rbp leaq 168(%r10), %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$91(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$91: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 336(%rdi), %rdi leaq 336(%r8), %r8 leaq 336(%r9), %r9 leaq 336(%r10), %r10 leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$90(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$90: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%rdi) vmovhpd %xmm1, (%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%r9) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%rdi) vmovhpd %xmm1, 8(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%r9) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%rdi) vmovhpd %xmm1, 16(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%r9) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%rdi) vmovhpd %xmm1, 24(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%r9) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%rdi) vmovhpd %xmm1, 32(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%r9) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%rdi) vmovhpd %xmm1, 40(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%r9) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%rdi) vmovhpd %xmm1, 48(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%r9) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%rdi) vmovhpd %xmm1, 56(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%r9) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%rdi) vmovhpd %xmm1, 64(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%r9) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%rdi) vmovhpd %xmm1, 72(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%r9) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%rdi) vmovhpd %xmm1, 80(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%r9) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%rdi) vmovhpd %xmm1, 88(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%r9) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%rdi) vmovhpd %xmm1, 96(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%r9) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%rdi) vmovhpd %xmm1, 104(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%r9) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%rdi) vmovhpd %xmm1, 112(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%r9) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%rdi) vmovhpd %xmm1, 120(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%r9) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%rdi) vmovhpd %xmm1, 128(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%r9) vmovhpd %xmm0, 128(%r10) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%rdi) vmovhpd %xmm1, 136(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%r9) vmovhpd %xmm0, 136(%r10) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%rdi) vmovhpd %xmm1, 144(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%r9) vmovhpd %xmm0, 144(%r10) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%rdi) vmovhpd %xmm1, 152(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%r9) vmovhpd %xmm0, 152(%r10) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%rdi) vmovhpd %xmm1, 160(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%r9) vmovhpd %xmm0, 160(%r10) leaq 13472(%rsp), %rbx leaq 384(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$89(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$89: movq %r13, %rdi leaq 13984(%rsp), %rbx leaq 896(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$88(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$88: movq %r13, %r8 leaq 14496(%rsp), %rbx leaq 1408(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$87(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$87: movq %r13, %r9 leaq 15008(%rsp), %rbx leaq 1920(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$86(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$86: cmpq $255, %rdi setbe %al cmpq $255, %r8 setbe %cl orb %cl, %al cmpq $255, %r9 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl jmp L__crypto_kem_enc_derand_jazz$63 L__crypto_kem_enc_derand_jazz$64: leaq 4480(%rsp), %rax leaq 384(%rsp), %r10 leaq 896(%rsp), %r11 leaq 1408(%rsp), %rbx leaq 1920(%rsp), %rbp leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$85(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$85: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r10) vmovhpd %xmm1, (%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbx) vmovhpd %xmm0, (%rbp) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r10) vmovhpd %xmm1, 8(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbx) vmovhpd %xmm0, 8(%rbp) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r10) vmovhpd %xmm1, 16(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbx) vmovhpd %xmm0, 16(%rbp) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r10) vmovhpd %xmm1, 24(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbx) vmovhpd %xmm0, 24(%rbp) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r10) vmovhpd %xmm1, 32(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbx) vmovhpd %xmm0, 32(%rbp) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r10) vmovhpd %xmm1, 40(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbx) vmovhpd %xmm0, 40(%rbp) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r10) vmovhpd %xmm1, 48(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbx) vmovhpd %xmm0, 48(%rbp) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r10) vmovhpd %xmm1, 56(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbx) vmovhpd %xmm0, 56(%rbp) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r10) vmovhpd %xmm1, 64(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbx) vmovhpd %xmm0, 64(%rbp) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r10) vmovhpd %xmm1, 72(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbx) vmovhpd %xmm0, 72(%rbp) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r10) vmovhpd %xmm1, 80(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbx) vmovhpd %xmm0, 80(%rbp) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r10) vmovhpd %xmm1, 88(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbx) vmovhpd %xmm0, 88(%rbp) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r10) vmovhpd %xmm1, 96(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbx) vmovhpd %xmm0, 96(%rbp) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r10) vmovhpd %xmm1, 104(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbx) vmovhpd %xmm0, 104(%rbp) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r10) vmovhpd %xmm1, 112(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbx) vmovhpd %xmm0, 112(%rbp) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r10) vmovhpd %xmm1, 120(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbx) vmovhpd %xmm0, 120(%rbp) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r10) vmovhpd %xmm1, 128(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbx) vmovhpd %xmm0, 128(%rbp) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r10) vmovhpd %xmm1, 136(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbx) vmovhpd %xmm0, 136(%rbp) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r10) vmovhpd %xmm1, 144(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbx) vmovhpd %xmm0, 144(%rbp) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r10) vmovhpd %xmm1, 152(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbx) vmovhpd %xmm0, 152(%rbp) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r10) vmovhpd %xmm1, 160(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbx) vmovhpd %xmm0, 160(%rbp) leaq 13472(%rsp), %rax leaq 384(%rsp), %rcx movq $0, %rdx cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$80 L__crypto_kem_enc_derand_jazz$81: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$84 movw %si, (%rax,%rdi,2) incq %rdi L__crypto_kem_enc_derand_jazz$84: cmpq $256, %rdi jnb L__crypto_kem_enc_derand_jazz$82 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$82 movw %r11w, (%rax,%rdi,2) incq %rdi L__crypto_kem_enc_derand_jazz$83: L__crypto_kem_enc_derand_jazz$82: cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$80: jne L__crypto_kem_enc_derand_jazz$81 leaq 13984(%rsp), %rax leaq 896(%rsp), %rcx movq $0, %rdx cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$75 L__crypto_kem_enc_derand_jazz$76: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$79 movw %si, (%rax,%r8,2) incq %r8 L__crypto_kem_enc_derand_jazz$79: cmpq $256, %r8 jnb L__crypto_kem_enc_derand_jazz$77 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$77 movw %r11w, (%rax,%r8,2) incq %r8 L__crypto_kem_enc_derand_jazz$78: L__crypto_kem_enc_derand_jazz$77: cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$75: jne L__crypto_kem_enc_derand_jazz$76 leaq 14496(%rsp), %rax leaq 1408(%rsp), %rcx movq $0, %rdx cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$70 L__crypto_kem_enc_derand_jazz$71: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$74 movw %si, (%rax,%r9,2) incq %r9 L__crypto_kem_enc_derand_jazz$74: cmpq $256, %r9 jnb L__crypto_kem_enc_derand_jazz$72 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$72 movw %r11w, (%rax,%r9,2) incq %r9 L__crypto_kem_enc_derand_jazz$73: L__crypto_kem_enc_derand_jazz$72: cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$70: jne L__crypto_kem_enc_derand_jazz$71 leaq 15008(%rsp), %rax leaq 1920(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$65 L__crypto_kem_enc_derand_jazz$66: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$69 movw %si, (%rax,%r13,2) incq %r13 L__crypto_kem_enc_derand_jazz$69: cmpq $256, %r13 jnb L__crypto_kem_enc_derand_jazz$67 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$67 movw %r11w, (%rax,%r13,2) incq %r13 L__crypto_kem_enc_derand_jazz$68: L__crypto_kem_enc_derand_jazz$67: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$65: jne L__crypto_kem_enc_derand_jazz$66 cmpq $255, %rdi setbe %al cmpq $255, %r8 setbe %cl orb %cl, %al cmpq $255, %r9 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl L__crypto_kem_enc_derand_jazz$63: jne L__crypto_kem_enc_derand_jazz$64 vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 384(%rsp) movb $2, 416(%rsp) movb $2, 417(%rsp) leaq 384(%rsp), %rax vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm0, 224(%rsp) vmovdqu %ymm0, 256(%rsp) vmovdqu %ymm0, 288(%rsp) vmovdqu %ymm0, 320(%rsp) vmovdqu %ymm0, 352(%rsp) vpbroadcastq (%rax), %ymm5 movq 8(%rax), %rcx movq glob_data + 6208(%rip), %rdx movq %rcx, 160(%rsp,%rdx,8) movq 16(%rax), %rcx movq glob_data + 6216(%rip), %rdx movq %rcx, 160(%rsp,%rdx,8) movq 24(%rax), %rcx movq glob_data + 6224(%rip), %rdx movq %rcx, 160(%rsp,%rdx,8) movb 32(%rax), %cl movq glob_data + 6232(%rip), %rdx shlq $3, %rdx movb %cl, 160(%rsp,%rdx) movb 33(%rax), %al incq %rdx movb %al, 160(%rsp,%rdx) incq %rdx movb $31, 160(%rsp,%rdx) movq glob_data + 6360(%rip), %rax shlq $3, %rax movq $167, %rcx andq $7, %rcx addq %rcx, %rax movb $-128, 160(%rsp,%rax) vmovdqu 192(%rsp), %ymm0 vmovdqu 224(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 288(%rsp), %ymm6 vmovdqu 320(%rsp), %ymm3 vmovdqu 352(%rsp), %ymm4 leaq 384(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_enc_derand_jazz$62: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne L__crypto_kem_enc_derand_jazz$62 vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 552(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_enc_derand_jazz$61: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne L__crypto_kem_enc_derand_jazz$61 vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 720(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_enc_derand_jazz$60: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne L__crypto_kem_enc_derand_jazz$60 vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) leaq 15520(%rsp), %rbx leaq 384(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$59(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$59: cmpq $255, %r13 setbe %al vmovdqu 160(%rsp), %ymm6 vmovdqu 192(%rsp), %ymm0 vmovdqu 224(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 288(%rsp), %ymm3 vmovdqu 320(%rsp), %ymm4 vmovdqu 352(%rsp), %ymm5 jmp L__crypto_kem_enc_derand_jazz$51 L__crypto_kem_enc_derand_jazz$52: leaq 384(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_enc_derand_jazz$58: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne L__crypto_kem_enc_derand_jazz$58 vmovdqu %ymm6, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm3, 288(%rsp) vmovdqu %ymm4, 320(%rsp) vmovdqu %ymm5, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 15520(%rsp), %rax leaq 384(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %dil testb %dil, %sil jmp L__crypto_kem_enc_derand_jazz$53 L__crypto_kem_enc_derand_jazz$54: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw (%rcx,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$57 movw %si, (%rax,%r13,2) incq %r13 L__crypto_kem_enc_derand_jazz$57: cmpq $256, %r13 jnb L__crypto_kem_enc_derand_jazz$55 cmpw $3329, %r8w jnb L__crypto_kem_enc_derand_jazz$55 movw %r8w, (%rax,%r13,2) incq %r13 L__crypto_kem_enc_derand_jazz$56: L__crypto_kem_enc_derand_jazz$55: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %dil testb %dil, %sil L__crypto_kem_enc_derand_jazz$53: jne L__crypto_kem_enc_derand_jazz$54 cmpq $255, %r13 setbe %al L__crypto_kem_enc_derand_jazz$51: cmpb $0, %al jne L__crypto_kem_enc_derand_jazz$52 leaq 11424(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$50(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$50: leaq 11936(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$49(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$49: leaq 12448(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$48(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$48: leaq 12960(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$47(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$47: leaq 13472(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$46(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$46: leaq 13984(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$45(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$45: leaq 14496(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$44(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$44: leaq 15008(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$43(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$43: leaq 15520(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$42(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$42: movq 16032(%rsp), %r10 movb $0, %cl leaq 6816(%rsp), %rax leaq 7328(%rsp), %rdi leaq 7840(%rsp), %r8 leaq 8352(%rsp), %r9 leaq -1472(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$41(%rip), %rdx movq %rdx, 1464(%rsp) jmp L_poly_getnoise_eta1_4x$1 L__crypto_kem_enc_derand_jazz$41: leaq 1472(%rsp), %rsp movb $4, %cl leaq 8864(%rsp), %rax leaq 9376(%rsp), %rdi leaq 2944(%rsp), %r8 leaq 9888(%rsp), %r9 leaq -1472(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$40(%rip), %rdx movq %rdx, 1464(%rsp) jmp L_poly_getnoise_eta1_4x$1 L__crypto_kem_enc_derand_jazz$40: leaq 1472(%rsp), %rsp leaq 6816(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$39(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_enc_derand_jazz$39: leaq 7328(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$38(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_enc_derand_jazz$38: leaq 7840(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$37(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_enc_derand_jazz$37: leaq 9888(%rsp), %rcx leaq 11424(%rsp), %rsi leaq 6816(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$36(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$36: leaq 3456(%rsp), %rcx leaq 11936(%rsp), %rsi leaq 7328(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$35(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$35: leaq 9888(%rsp), %rcx leaq 3456(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$34(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$34: leaq 3456(%rsp), %rcx leaq 12448(%rsp), %rsi leaq 7840(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$33(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$33: leaq 9888(%rsp), %rcx leaq 3456(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$32(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$32: leaq 10400(%rsp), %rcx leaq 12960(%rsp), %rsi leaq 6816(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$31(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$31: leaq 3456(%rsp), %rcx leaq 13472(%rsp), %rsi leaq 7328(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$30(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$30: leaq 10400(%rsp), %rcx leaq 3456(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$29(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$29: leaq 3456(%rsp), %rcx leaq 13984(%rsp), %rsi leaq 7840(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$28(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$28: leaq 10400(%rsp), %rcx leaq 3456(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$27(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$27: leaq 10912(%rsp), %rcx leaq 14496(%rsp), %rsi leaq 6816(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$26(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$26: leaq 3456(%rsp), %rcx leaq 15008(%rsp), %rsi leaq 7328(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$25(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$25: leaq 10912(%rsp), %rcx leaq 3456(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$24(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$24: leaq 3456(%rsp), %rcx leaq 15520(%rsp), %rsi leaq 7840(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$23(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$23: leaq 10912(%rsp), %rcx leaq 3456(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$22(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$22: leaq 3456(%rsp), %rcx leaq 5280(%rsp), %rsi leaq 6816(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$21(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$21: leaq 3968(%rsp), %rcx leaq 5792(%rsp), %rsi leaq 7328(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$20(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$20: leaq 3456(%rsp), %rcx leaq 3968(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$19(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$19: leaq 3968(%rsp), %rcx leaq 6304(%rsp), %rsi leaq 7840(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$18(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$18: leaq 3456(%rsp), %rcx leaq 3968(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$17(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$17: leaq 9888(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$16(%rip), %rdi jmp L_poly_invntt$1 L__crypto_kem_enc_derand_jazz$16: leaq 10400(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$15(%rip), %rdi jmp L_poly_invntt$1 L__crypto_kem_enc_derand_jazz$15: leaq 10912(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$14(%rip), %rdi jmp L_poly_invntt$1 L__crypto_kem_enc_derand_jazz$14: leaq 3456(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$13(%rip), %rdi jmp L_poly_invntt$1 L__crypto_kem_enc_derand_jazz$13: leaq 9888(%rsp), %rcx leaq 8352(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$12(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$12: leaq 10400(%rsp), %rcx leaq 8864(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$11(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$11: leaq 10912(%rsp), %rcx leaq 9376(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$10(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$10: leaq 3456(%rsp), %rcx leaq 2944(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$9(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$9: leaq 3456(%rsp), %rcx leaq 2432(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$8(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$8: leaq 9888(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 10400(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 10912(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 3456(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) movq 16040(%rsp), %rax leaq 9888(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$7(%rip), %r8 jmp L_poly_csubq$1 L__crypto_kem_enc_derand_jazz$7: leaq 10400(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$6(%rip), %r8 jmp L_poly_csubq$1 L__crypto_kem_enc_derand_jazz$6: leaq 10912(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$5(%rip), %r8 jmp L_poly_csubq$1 L__crypto_kem_enc_derand_jazz$5: leaq glob_data + 384(%rip), %rcx vmovdqu (%rcx), %ymm0 vpsllw $3, %ymm0, %ymm1 vpbroadcastw glob_data + 6422(%rip), %ymm2 vpbroadcastw glob_data + 6420(%rip), %ymm3 vpbroadcastw glob_data + 6418(%rip), %ymm4 vpbroadcastq glob_data + 6184(%rip), %ymm5 vpbroadcastq glob_data + 6176(%rip), %ymm6 vmovdqu glob_data + 32(%rip), %ymm7 vmovdqu 9888(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, (%rax) vpextrd $0, %xmm8, 16(%rax) vmovdqu 9920(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 20(%rax) vpextrd $0, %xmm8, 36(%rax) vmovdqu 9952(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 40(%rax) vpextrd $0, %xmm8, 56(%rax) vmovdqu 9984(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 60(%rax) vpextrd $0, %xmm8, 76(%rax) vmovdqu 10016(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 80(%rax) vpextrd $0, %xmm8, 96(%rax) vmovdqu 10048(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 100(%rax) vpextrd $0, %xmm8, 116(%rax) vmovdqu 10080(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 120(%rax) vpextrd $0, %xmm8, 136(%rax) vmovdqu 10112(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 140(%rax) vpextrd $0, %xmm8, 156(%rax) vmovdqu 10144(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 160(%rax) vpextrd $0, %xmm8, 176(%rax) vmovdqu 10176(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 180(%rax) vpextrd $0, %xmm8, 196(%rax) vmovdqu 10208(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 200(%rax) vpextrd $0, %xmm8, 216(%rax) vmovdqu 10240(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 220(%rax) vpextrd $0, %xmm8, 236(%rax) vmovdqu 10272(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 240(%rax) vpextrd $0, %xmm8, 256(%rax) vmovdqu 10304(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 260(%rax) vpextrd $0, %xmm8, 276(%rax) vmovdqu 10336(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 280(%rax) vpextrd $0, %xmm8, 296(%rax) vmovdqu 10368(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 300(%rax) vpextrd $0, %xmm8, 316(%rax) vmovdqu 10400(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 320(%rax) vpextrd $0, %xmm8, 336(%rax) vmovdqu 10432(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 340(%rax) vpextrd $0, %xmm8, 356(%rax) vmovdqu 10464(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 360(%rax) vpextrd $0, %xmm8, 376(%rax) vmovdqu 10496(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 380(%rax) vpextrd $0, %xmm8, 396(%rax) vmovdqu 10528(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 400(%rax) vpextrd $0, %xmm8, 416(%rax) vmovdqu 10560(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 420(%rax) vpextrd $0, %xmm8, 436(%rax) vmovdqu 10592(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 440(%rax) vpextrd $0, %xmm8, 456(%rax) vmovdqu 10624(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 460(%rax) vpextrd $0, %xmm8, 476(%rax) vmovdqu 10656(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 480(%rax) vpextrd $0, %xmm8, 496(%rax) vmovdqu 10688(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 500(%rax) vpextrd $0, %xmm8, 516(%rax) vmovdqu 10720(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 520(%rax) vpextrd $0, %xmm8, 536(%rax) vmovdqu 10752(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 540(%rax) vpextrd $0, %xmm8, 556(%rax) vmovdqu 10784(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 560(%rax) vpextrd $0, %xmm8, 576(%rax) vmovdqu 10816(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 580(%rax) vpextrd $0, %xmm8, 596(%rax) vmovdqu 10848(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 600(%rax) vpextrd $0, %xmm8, 616(%rax) vmovdqu 10880(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 620(%rax) vpextrd $0, %xmm8, 636(%rax) vmovdqu 10912(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 640(%rax) vpextrd $0, %xmm8, 656(%rax) vmovdqu 10944(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 660(%rax) vpextrd $0, %xmm8, 676(%rax) vmovdqu 10976(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 680(%rax) vpextrd $0, %xmm8, 696(%rax) vmovdqu 11008(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 700(%rax) vpextrd $0, %xmm8, 716(%rax) vmovdqu 11040(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 720(%rax) vpextrd $0, %xmm8, 736(%rax) vmovdqu 11072(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 740(%rax) vpextrd $0, %xmm8, 756(%rax) vmovdqu 11104(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 760(%rax) vpextrd $0, %xmm8, 776(%rax) vmovdqu 11136(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 780(%rax) vpextrd $0, %xmm8, 796(%rax) vmovdqu 11168(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 800(%rax) vpextrd $0, %xmm8, 816(%rax) vmovdqu 11200(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 820(%rax) vpextrd $0, %xmm8, 836(%rax) vmovdqu 11232(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 840(%rax) vpextrd $0, %xmm8, 856(%rax) vmovdqu 11264(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 860(%rax) vpextrd $0, %xmm8, 876(%rax) vmovdqu 11296(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 880(%rax) vpextrd $0, %xmm8, 896(%rax) vmovdqu 11328(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 900(%rax) vpextrd $0, %xmm8, 916(%rax) vmovdqu 11360(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 920(%rax) vpextrd $0, %xmm8, 936(%rax) vmovdqu 11392(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm1 vpaddw %ymm2, %ymm8, %ymm2 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm0 vpsubw %ymm2, %ymm1, %ymm2 vpandn %ymm2, %ymm1, %ymm1 vpsrlw $15, %ymm1, %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vpmulhrsw %ymm3, %ymm0, %ymm0 vpand %ymm4, %ymm0, %ymm0 vpmaddwd %ymm5, %ymm0, %ymm0 vpsllvd %ymm6, %ymm0, %ymm0 vpsrlq $12, %ymm0, %ymm0 vpshufb %ymm7, %ymm0, %ymm0 vmovdqu %xmm0, %xmm1 vextracti128 $1, %ymm0, %xmm0 vpblendw $-32, %xmm0, %xmm1, %xmm1 vmovdqu %xmm1, 940(%rax) vpextrd $0, %xmm0, 956(%rax) addq $960, %rax leaq 3456(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$4(%rip), %rsi jmp L_poly_compress$1 L__crypto_kem_enc_derand_jazz$4: movq 16040(%rsp), %r8 movq $1088, %rdi leaq 128(%rsp), %rax leaq -256(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$3(%rip), %rcx movq %rcx, 224(%rsp) jmp L_sha3_256$1 L__crypto_kem_enc_derand_jazz$3: leaq 256(%rsp), %rsp movq 16048(%rsp), %rdx movq $32, %rcx leaq 96(%rsp), %rax leaq -256(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$2(%rip), %rsi movq %rsi, 224(%rsp) jmp L_shake256_64$1 L__crypto_kem_enc_derand_jazz$2: leaq 256(%rsp), %rsp jmp *16056(%rsp) L__crypto_kem_keypair_derand_jazz$1: movq %rax, 12896(%rsp) movq %rbp, 12904(%rsp) movq %rbx, 12912(%rsp) movq %rax, %rcx movq %rbp, 12920(%rsp) movq %rbx, 12928(%rsp) leaq 12936(%rsp), %rax leaq -256(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$121(%rip), %rdx movq %rdx, 224(%rsp) jmp L_sha3_512_32$1 L__crypto_kem_keypair_derand_jazz$121: leaq 256(%rsp), %rsp movq 12936(%rsp), %rax movq %rax, (%rsp) movq 12968(%rsp), %rax movq %rax, 32(%rsp) movq 12944(%rsp), %rax movq %rax, 8(%rsp) movq 12976(%rsp), %rax movq %rax, 40(%rsp) movq 12952(%rsp), %rax movq %rax, 16(%rsp) movq 12984(%rsp), %rax movq %rax, 48(%rsp) movq 12960(%rsp), %rax movq %rax, 24(%rsp) movq 12992(%rsp), %rax movq %rax, 56(%rsp) vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 320(%rsp) vmovdqu %ymm0, 832(%rsp) vmovdqu %ymm0, 1344(%rsp) vmovdqu %ymm0, 1856(%rsp) vmovdqu %ymm0, 64(%rsp) movb $0, 352(%rsp) movb $0, 353(%rsp) movb $1, 864(%rsp) movb $0, 865(%rsp) movb $2, 1376(%rsp) movb $0, 1377(%rsp) movb $0, 1888(%rsp) movb $1, 1889(%rsp) leaq 2880(%rsp), %rax leaq 320(%rsp), %rcx leaq 832(%rsp), %rdx leaq 1344(%rsp), %rsi leaq 1856(%rsp), %rdi leaq -8(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$120(%rip), %r8 movq %r8, (%rsp) jmp L_shake128_absorb4x_34$1 L__crypto_kem_keypair_derand_jazz$120: leaq 8(%rsp), %rsp leaq 2880(%rsp), %rax leaq 320(%rsp), %rdi leaq 832(%rsp), %r8 leaq 1344(%rsp), %r9 leaq 1856(%rsp), %r10 movq %rdi, %r11 movq %r8, %rbx movq %r9, %rbp movq %r10, %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$119(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$119: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 168(%rdi), %r11 leaq 168(%r8), %rbx leaq 168(%r9), %rbp leaq 168(%r10), %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$118(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$118: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 336(%rdi), %rdi leaq 336(%r8), %r8 leaq 336(%r9), %r9 leaq 336(%r10), %r10 leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$117(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$117: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%rdi) vmovhpd %xmm1, (%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%r9) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%rdi) vmovhpd %xmm1, 8(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%r9) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%rdi) vmovhpd %xmm1, 16(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%r9) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%rdi) vmovhpd %xmm1, 24(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%r9) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%rdi) vmovhpd %xmm1, 32(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%r9) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%rdi) vmovhpd %xmm1, 40(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%r9) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%rdi) vmovhpd %xmm1, 48(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%r9) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%rdi) vmovhpd %xmm1, 56(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%r9) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%rdi) vmovhpd %xmm1, 64(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%r9) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%rdi) vmovhpd %xmm1, 72(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%r9) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%rdi) vmovhpd %xmm1, 80(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%r9) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%rdi) vmovhpd %xmm1, 88(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%r9) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%rdi) vmovhpd %xmm1, 96(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%r9) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%rdi) vmovhpd %xmm1, 104(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%r9) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%rdi) vmovhpd %xmm1, 112(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%r9) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%rdi) vmovhpd %xmm1, 120(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%r9) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%rdi) vmovhpd %xmm1, 128(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%r9) vmovhpd %xmm0, 128(%r10) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%rdi) vmovhpd %xmm1, 136(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%r9) vmovhpd %xmm0, 136(%r10) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%rdi) vmovhpd %xmm1, 144(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%r9) vmovhpd %xmm0, 144(%r10) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%rdi) vmovhpd %xmm1, 152(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%r9) vmovhpd %xmm0, 152(%r10) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%rdi) vmovhpd %xmm1, 160(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%r9) vmovhpd %xmm0, 160(%r10) leaq 8288(%rsp), %rbx leaq 320(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$116(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$116: movq %r13, %rdi leaq 8800(%rsp), %rbx leaq 832(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$115(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$115: movq %r13, %r9 leaq 9312(%rsp), %rbx leaq 1344(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$114(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$114: movq %r13, %r8 leaq 9824(%rsp), %rbx leaq 1856(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$113(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$113: cmpq $255, %rdi setbe %al cmpq $255, %r9 setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl jmp L__crypto_kem_keypair_derand_jazz$90 L__crypto_kem_keypair_derand_jazz$91: leaq 2880(%rsp), %rax leaq 320(%rsp), %r10 leaq 832(%rsp), %r11 leaq 1344(%rsp), %rbx leaq 1856(%rsp), %rbp leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$112(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$112: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r10) vmovhpd %xmm1, (%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbx) vmovhpd %xmm0, (%rbp) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r10) vmovhpd %xmm1, 8(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbx) vmovhpd %xmm0, 8(%rbp) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r10) vmovhpd %xmm1, 16(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbx) vmovhpd %xmm0, 16(%rbp) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r10) vmovhpd %xmm1, 24(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbx) vmovhpd %xmm0, 24(%rbp) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r10) vmovhpd %xmm1, 32(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbx) vmovhpd %xmm0, 32(%rbp) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r10) vmovhpd %xmm1, 40(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbx) vmovhpd %xmm0, 40(%rbp) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r10) vmovhpd %xmm1, 48(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbx) vmovhpd %xmm0, 48(%rbp) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r10) vmovhpd %xmm1, 56(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbx) vmovhpd %xmm0, 56(%rbp) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r10) vmovhpd %xmm1, 64(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbx) vmovhpd %xmm0, 64(%rbp) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r10) vmovhpd %xmm1, 72(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbx) vmovhpd %xmm0, 72(%rbp) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r10) vmovhpd %xmm1, 80(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbx) vmovhpd %xmm0, 80(%rbp) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r10) vmovhpd %xmm1, 88(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbx) vmovhpd %xmm0, 88(%rbp) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r10) vmovhpd %xmm1, 96(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbx) vmovhpd %xmm0, 96(%rbp) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r10) vmovhpd %xmm1, 104(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbx) vmovhpd %xmm0, 104(%rbp) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r10) vmovhpd %xmm1, 112(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbx) vmovhpd %xmm0, 112(%rbp) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r10) vmovhpd %xmm1, 120(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbx) vmovhpd %xmm0, 120(%rbp) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r10) vmovhpd %xmm1, 128(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbx) vmovhpd %xmm0, 128(%rbp) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r10) vmovhpd %xmm1, 136(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbx) vmovhpd %xmm0, 136(%rbp) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r10) vmovhpd %xmm1, 144(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbx) vmovhpd %xmm0, 144(%rbp) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r10) vmovhpd %xmm1, 152(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbx) vmovhpd %xmm0, 152(%rbp) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r10) vmovhpd %xmm1, 160(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbx) vmovhpd %xmm0, 160(%rbp) leaq 8288(%rsp), %rax leaq 320(%rsp), %rcx movq $0, %rdx cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$107 L__crypto_kem_keypair_derand_jazz$108: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$111 movw %si, (%rax,%rdi,2) incq %rdi L__crypto_kem_keypair_derand_jazz$111: cmpq $256, %rdi jnb L__crypto_kem_keypair_derand_jazz$109 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$109 movw %r11w, (%rax,%rdi,2) incq %rdi L__crypto_kem_keypair_derand_jazz$110: L__crypto_kem_keypair_derand_jazz$109: cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$107: jne L__crypto_kem_keypair_derand_jazz$108 leaq 8800(%rsp), %rax leaq 832(%rsp), %rcx movq $0, %rdx cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$102 L__crypto_kem_keypair_derand_jazz$103: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$106 movw %si, (%rax,%r9,2) incq %r9 L__crypto_kem_keypair_derand_jazz$106: cmpq $256, %r9 jnb L__crypto_kem_keypair_derand_jazz$104 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$104 movw %r11w, (%rax,%r9,2) incq %r9 L__crypto_kem_keypair_derand_jazz$105: L__crypto_kem_keypair_derand_jazz$104: cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$102: jne L__crypto_kem_keypair_derand_jazz$103 leaq 9312(%rsp), %rax leaq 1344(%rsp), %rcx movq $0, %rdx cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$97 L__crypto_kem_keypair_derand_jazz$98: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$101 movw %si, (%rax,%r8,2) incq %r8 L__crypto_kem_keypair_derand_jazz$101: cmpq $256, %r8 jnb L__crypto_kem_keypair_derand_jazz$99 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$99 movw %r11w, (%rax,%r8,2) incq %r8 L__crypto_kem_keypair_derand_jazz$100: L__crypto_kem_keypair_derand_jazz$99: cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$97: jne L__crypto_kem_keypair_derand_jazz$98 leaq 9824(%rsp), %rax leaq 1856(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$92 L__crypto_kem_keypair_derand_jazz$93: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$96 movw %si, (%rax,%r13,2) incq %r13 L__crypto_kem_keypair_derand_jazz$96: cmpq $256, %r13 jnb L__crypto_kem_keypair_derand_jazz$94 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$94 movw %r11w, (%rax,%r13,2) incq %r13 L__crypto_kem_keypair_derand_jazz$95: L__crypto_kem_keypair_derand_jazz$94: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$92: jne L__crypto_kem_keypair_derand_jazz$93 cmpq $255, %rdi setbe %al cmpq $255, %r9 setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl L__crypto_kem_keypair_derand_jazz$90: jne L__crypto_kem_keypair_derand_jazz$91 vmovdqu 64(%rsp), %ymm0 vmovdqu %ymm0, 320(%rsp) vmovdqu %ymm0, 832(%rsp) vmovdqu %ymm0, 1344(%rsp) vmovdqu %ymm0, 1856(%rsp) vmovdqu %ymm0, 64(%rsp) movb $1, 352(%rsp) movb $1, 353(%rsp) movb $2, 864(%rsp) movb $1, 865(%rsp) movb $0, 1376(%rsp) movb $2, 1377(%rsp) movb $1, 1888(%rsp) movb $2, 1889(%rsp) leaq 2880(%rsp), %rax leaq 320(%rsp), %rcx leaq 832(%rsp), %rdx leaq 1344(%rsp), %rsi leaq 1856(%rsp), %rdi leaq -8(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$89(%rip), %r8 movq %r8, (%rsp) jmp L_shake128_absorb4x_34$1 L__crypto_kem_keypair_derand_jazz$89: leaq 8(%rsp), %rsp leaq 2880(%rsp), %rax leaq 320(%rsp), %rdi leaq 832(%rsp), %r8 leaq 1344(%rsp), %r9 leaq 1856(%rsp), %r10 movq %rdi, %r11 movq %r8, %rbx movq %r9, %rbp movq %r10, %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$88(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$88: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 168(%rdi), %r11 leaq 168(%r8), %rbx leaq 168(%r9), %rbp leaq 168(%r10), %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$87(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$87: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 336(%rdi), %rdi leaq 336(%r8), %r8 leaq 336(%r9), %r9 leaq 336(%r10), %r10 leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$86(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$86: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%rdi) vmovhpd %xmm1, (%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%r9) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%rdi) vmovhpd %xmm1, 8(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%r9) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%rdi) vmovhpd %xmm1, 16(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%r9) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%rdi) vmovhpd %xmm1, 24(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%r9) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%rdi) vmovhpd %xmm1, 32(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%r9) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%rdi) vmovhpd %xmm1, 40(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%r9) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%rdi) vmovhpd %xmm1, 48(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%r9) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%rdi) vmovhpd %xmm1, 56(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%r9) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%rdi) vmovhpd %xmm1, 64(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%r9) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%rdi) vmovhpd %xmm1, 72(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%r9) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%rdi) vmovhpd %xmm1, 80(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%r9) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%rdi) vmovhpd %xmm1, 88(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%r9) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%rdi) vmovhpd %xmm1, 96(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%r9) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%rdi) vmovhpd %xmm1, 104(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%r9) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%rdi) vmovhpd %xmm1, 112(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%r9) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%rdi) vmovhpd %xmm1, 120(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%r9) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%rdi) vmovhpd %xmm1, 128(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%r9) vmovhpd %xmm0, 128(%r10) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%rdi) vmovhpd %xmm1, 136(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%r9) vmovhpd %xmm0, 136(%r10) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%rdi) vmovhpd %xmm1, 144(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%r9) vmovhpd %xmm0, 144(%r10) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%rdi) vmovhpd %xmm1, 152(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%r9) vmovhpd %xmm0, 152(%r10) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%rdi) vmovhpd %xmm1, 160(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%r9) vmovhpd %xmm0, 160(%r10) leaq 10336(%rsp), %rbx leaq 320(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$85(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$85: movq %r13, %r9 leaq 10848(%rsp), %rbx leaq 832(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$84(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$84: movq %r13, %rdi leaq 11360(%rsp), %rbx leaq 1344(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$83(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$83: movq %r13, %r8 leaq 11872(%rsp), %rbx leaq 1856(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$82(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$82: cmpq $255, %r9 setbe %al cmpq $255, %rdi setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl jmp L__crypto_kem_keypair_derand_jazz$59 L__crypto_kem_keypair_derand_jazz$60: leaq 2880(%rsp), %rax leaq 320(%rsp), %r10 leaq 832(%rsp), %r11 leaq 1344(%rsp), %rbx leaq 1856(%rsp), %rbp leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$81(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$81: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r10) vmovhpd %xmm1, (%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbx) vmovhpd %xmm0, (%rbp) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r10) vmovhpd %xmm1, 8(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbx) vmovhpd %xmm0, 8(%rbp) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r10) vmovhpd %xmm1, 16(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbx) vmovhpd %xmm0, 16(%rbp) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r10) vmovhpd %xmm1, 24(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbx) vmovhpd %xmm0, 24(%rbp) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r10) vmovhpd %xmm1, 32(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbx) vmovhpd %xmm0, 32(%rbp) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r10) vmovhpd %xmm1, 40(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbx) vmovhpd %xmm0, 40(%rbp) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r10) vmovhpd %xmm1, 48(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbx) vmovhpd %xmm0, 48(%rbp) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r10) vmovhpd %xmm1, 56(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbx) vmovhpd %xmm0, 56(%rbp) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r10) vmovhpd %xmm1, 64(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbx) vmovhpd %xmm0, 64(%rbp) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r10) vmovhpd %xmm1, 72(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbx) vmovhpd %xmm0, 72(%rbp) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r10) vmovhpd %xmm1, 80(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbx) vmovhpd %xmm0, 80(%rbp) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r10) vmovhpd %xmm1, 88(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbx) vmovhpd %xmm0, 88(%rbp) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r10) vmovhpd %xmm1, 96(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbx) vmovhpd %xmm0, 96(%rbp) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r10) vmovhpd %xmm1, 104(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbx) vmovhpd %xmm0, 104(%rbp) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r10) vmovhpd %xmm1, 112(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbx) vmovhpd %xmm0, 112(%rbp) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r10) vmovhpd %xmm1, 120(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbx) vmovhpd %xmm0, 120(%rbp) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r10) vmovhpd %xmm1, 128(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbx) vmovhpd %xmm0, 128(%rbp) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r10) vmovhpd %xmm1, 136(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbx) vmovhpd %xmm0, 136(%rbp) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r10) vmovhpd %xmm1, 144(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbx) vmovhpd %xmm0, 144(%rbp) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r10) vmovhpd %xmm1, 152(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbx) vmovhpd %xmm0, 152(%rbp) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r10) vmovhpd %xmm1, 160(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbx) vmovhpd %xmm0, 160(%rbp) leaq 10336(%rsp), %rax leaq 320(%rsp), %rcx movq $0, %rdx cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$76 L__crypto_kem_keypair_derand_jazz$77: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$80 movw %si, (%rax,%r9,2) incq %r9 L__crypto_kem_keypair_derand_jazz$80: cmpq $256, %r9 jnb L__crypto_kem_keypair_derand_jazz$78 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$78 movw %r11w, (%rax,%r9,2) incq %r9 L__crypto_kem_keypair_derand_jazz$79: L__crypto_kem_keypair_derand_jazz$78: cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$76: jne L__crypto_kem_keypair_derand_jazz$77 leaq 10848(%rsp), %rax leaq 832(%rsp), %rcx movq $0, %rdx cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$71 L__crypto_kem_keypair_derand_jazz$72: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$75 movw %si, (%rax,%rdi,2) incq %rdi L__crypto_kem_keypair_derand_jazz$75: cmpq $256, %rdi jnb L__crypto_kem_keypair_derand_jazz$73 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$73 movw %r11w, (%rax,%rdi,2) incq %rdi L__crypto_kem_keypair_derand_jazz$74: L__crypto_kem_keypair_derand_jazz$73: cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$71: jne L__crypto_kem_keypair_derand_jazz$72 leaq 11360(%rsp), %rax leaq 1344(%rsp), %rcx movq $0, %rdx cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$66 L__crypto_kem_keypair_derand_jazz$67: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$70 movw %si, (%rax,%r8,2) incq %r8 L__crypto_kem_keypair_derand_jazz$70: cmpq $256, %r8 jnb L__crypto_kem_keypair_derand_jazz$68 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$68 movw %r11w, (%rax,%r8,2) incq %r8 L__crypto_kem_keypair_derand_jazz$69: L__crypto_kem_keypair_derand_jazz$68: cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$66: jne L__crypto_kem_keypair_derand_jazz$67 leaq 11872(%rsp), %rax leaq 1856(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$61 L__crypto_kem_keypair_derand_jazz$62: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$65 movw %si, (%rax,%r13,2) incq %r13 L__crypto_kem_keypair_derand_jazz$65: cmpq $256, %r13 jnb L__crypto_kem_keypair_derand_jazz$63 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$63 movw %r11w, (%rax,%r13,2) incq %r13 L__crypto_kem_keypair_derand_jazz$64: L__crypto_kem_keypair_derand_jazz$63: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$61: jne L__crypto_kem_keypair_derand_jazz$62 cmpq $255, %r9 setbe %al cmpq $255, %rdi setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl L__crypto_kem_keypair_derand_jazz$59: jne L__crypto_kem_keypair_derand_jazz$60 vmovdqu 64(%rsp), %ymm0 vmovdqu %ymm0, 320(%rsp) movb $2, 352(%rsp) movb $2, 353(%rsp) leaq 320(%rsp), %rax vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm0, 224(%rsp) vmovdqu %ymm0, 256(%rsp) vmovdqu %ymm0, 288(%rsp) vpbroadcastq (%rax), %ymm5 movq 8(%rax), %rcx movq glob_data + 6208(%rip), %rdx movq %rcx, 96(%rsp,%rdx,8) movq 16(%rax), %rcx movq glob_data + 6216(%rip), %rdx movq %rcx, 96(%rsp,%rdx,8) movq 24(%rax), %rcx movq glob_data + 6224(%rip), %rdx movq %rcx, 96(%rsp,%rdx,8) movb 32(%rax), %cl movq glob_data + 6232(%rip), %rdx shlq $3, %rdx movb %cl, 96(%rsp,%rdx) movb 33(%rax), %al incq %rdx movb %al, 96(%rsp,%rdx) incq %rdx movb $31, 96(%rsp,%rdx) movq glob_data + 6360(%rip), %rax shlq $3, %rax movq $167, %rcx andq $7, %rcx addq %rcx, %rax movb $-128, 96(%rsp,%rax) vmovdqu 128(%rsp), %ymm0 vmovdqu 160(%rsp), %ymm1 vmovdqu 192(%rsp), %ymm2 vmovdqu 224(%rsp), %ymm6 vmovdqu 256(%rsp), %ymm3 vmovdqu 288(%rsp), %ymm4 leaq 320(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_keypair_derand_jazz$58: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne L__crypto_kem_keypair_derand_jazz$58 vmovdqu %ymm5, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) vmovdqu %ymm6, 224(%rsp) vmovdqu %ymm3, 256(%rsp) vmovdqu %ymm4, 288(%rsp) movq glob_data + 6200(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 488(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_keypair_derand_jazz$57: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne L__crypto_kem_keypair_derand_jazz$57 vmovdqu %ymm5, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) vmovdqu %ymm6, 224(%rsp) vmovdqu %ymm3, 256(%rsp) vmovdqu %ymm4, 288(%rsp) movq glob_data + 6200(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 656(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_keypair_derand_jazz$56: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne L__crypto_kem_keypair_derand_jazz$56 vmovdqu %ymm5, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) vmovdqu %ymm6, 224(%rsp) vmovdqu %ymm3, 256(%rsp) vmovdqu %ymm4, 288(%rsp) movq glob_data + 6200(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) vmovdqu %ymm5, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) vmovdqu %ymm6, 224(%rsp) vmovdqu %ymm3, 256(%rsp) vmovdqu %ymm4, 288(%rsp) leaq 12384(%rsp), %rbx leaq 320(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$55(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$55: cmpq $255, %r13 setbe %al vmovdqu 96(%rsp), %ymm6 vmovdqu 128(%rsp), %ymm0 vmovdqu 160(%rsp), %ymm1 vmovdqu 192(%rsp), %ymm2 vmovdqu 224(%rsp), %ymm3 vmovdqu 256(%rsp), %ymm4 vmovdqu 288(%rsp), %ymm5 jmp L__crypto_kem_keypair_derand_jazz$47 L__crypto_kem_keypair_derand_jazz$48: leaq 320(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_keypair_derand_jazz$54: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne L__crypto_kem_keypair_derand_jazz$54 vmovdqu %ymm6, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) vmovdqu %ymm3, 224(%rsp) vmovdqu %ymm4, 256(%rsp) vmovdqu %ymm5, 288(%rsp) movq glob_data + 6200(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 12384(%rsp), %rax leaq 320(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %dil testb %dil, %sil jmp L__crypto_kem_keypair_derand_jazz$49 L__crypto_kem_keypair_derand_jazz$50: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw (%rcx,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$53 movw %si, (%rax,%r13,2) incq %r13 L__crypto_kem_keypair_derand_jazz$53: cmpq $256, %r13 jnb L__crypto_kem_keypair_derand_jazz$51 cmpw $3329, %r8w jnb L__crypto_kem_keypair_derand_jazz$51 movw %r8w, (%rax,%r13,2) incq %r13 L__crypto_kem_keypair_derand_jazz$52: L__crypto_kem_keypair_derand_jazz$51: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %dil testb %dil, %sil L__crypto_kem_keypair_derand_jazz$49: jne L__crypto_kem_keypair_derand_jazz$50 cmpq $255, %r13 setbe %al L__crypto_kem_keypair_derand_jazz$47: cmpb $0, %al jne L__crypto_kem_keypair_derand_jazz$48 leaq 8288(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$46(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$46: leaq 8800(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$45(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$45: leaq 9312(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$44(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$44: leaq 9824(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$43(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$43: leaq 10336(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$42(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$42: leaq 10848(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$41(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$41: leaq 11360(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$40(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$40: leaq 11872(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$39(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$39: leaq 12384(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$38(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$38: movb $0, %cl leaq 3680(%rsp), %rax leaq 4192(%rsp), %rdi leaq 4704(%rsp), %r8 leaq 5216(%rsp), %r9 leaq 32(%rsp), %r10 leaq -1472(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$37(%rip), %rdx movq %rdx, 1464(%rsp) jmp L_poly_getnoise_eta1_4x$1 L__crypto_kem_keypair_derand_jazz$37: leaq 1472(%rsp), %rsp movb $4, %cl leaq 5728(%rsp), %rax leaq 6240(%rsp), %rdi leaq 6752(%rsp), %r8 leaq 7264(%rsp), %r9 leaq 32(%rsp), %r10 leaq -1472(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$36(%rip), %rdx movq %rdx, 1464(%rsp) jmp L_poly_getnoise_eta1_4x$1 L__crypto_kem_keypair_derand_jazz$36: leaq 1472(%rsp), %rsp leaq 3680(%rsp), %rcx leaq L__crypto_kem_keypair_derand_jazz$35(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_keypair_derand_jazz$35: leaq 4192(%rsp), %rcx leaq L__crypto_kem_keypair_derand_jazz$34(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_keypair_derand_jazz$34: leaq 4704(%rsp), %rcx leaq L__crypto_kem_keypair_derand_jazz$33(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_keypair_derand_jazz$33: leaq 5216(%rsp), %rcx leaq L__crypto_kem_keypair_derand_jazz$32(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_keypair_derand_jazz$32: leaq 5728(%rsp), %rcx leaq L__crypto_kem_keypair_derand_jazz$31(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_keypair_derand_jazz$31: leaq 6240(%rsp), %rcx leaq L__crypto_kem_keypair_derand_jazz$30(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_keypair_derand_jazz$30: leaq 6752(%rsp), %rcx leaq 8288(%rsp), %rsi leaq 3680(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$29(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$29: leaq 2368(%rsp), %rcx leaq 8800(%rsp), %rsi leaq 4192(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$28(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$28: leaq 6752(%rsp), %rcx leaq 2368(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$27(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$27: leaq 2368(%rsp), %rcx leaq 9312(%rsp), %rsi leaq 4704(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$26(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$26: leaq 6752(%rsp), %rcx leaq 2368(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$25(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$25: leaq 6752(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$24(%rip), %rdx jmp L_poly_frommont$1 L__crypto_kem_keypair_derand_jazz$24: leaq 7264(%rsp), %rcx leaq 9824(%rsp), %rsi leaq 3680(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$23(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$23: leaq 2368(%rsp), %rcx leaq 10336(%rsp), %rsi leaq 4192(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$22(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$22: leaq 7264(%rsp), %rcx leaq 2368(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$21(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$21: leaq 2368(%rsp), %rcx leaq 10848(%rsp), %rsi leaq 4704(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$20(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$20: leaq 7264(%rsp), %rcx leaq 2368(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$19(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$19: leaq 7264(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$18(%rip), %rdx jmp L_poly_frommont$1 L__crypto_kem_keypair_derand_jazz$18: leaq 7776(%rsp), %rcx leaq 11360(%rsp), %rsi leaq 3680(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$17(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$17: leaq 2368(%rsp), %rcx leaq 11872(%rsp), %rsi leaq 4192(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$16(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$16: leaq 7776(%rsp), %rcx leaq 2368(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$15(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$15: leaq 2368(%rsp), %rcx leaq 12384(%rsp), %rsi leaq 4704(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$14(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$14: leaq 7776(%rsp), %rcx leaq 2368(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$13(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$13: leaq 7776(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$12(%rip), %rdx jmp L_poly_frommont$1 L__crypto_kem_keypair_derand_jazz$12: leaq 6752(%rsp), %rcx leaq 5216(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$11(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$11: leaq 7264(%rsp), %rcx leaq 5728(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$10(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$10: leaq 7776(%rsp), %rcx leaq 6240(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$9(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$9: leaq 6752(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 7264(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 7776(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) movq 12920(%rsp), %rax movq 12928(%rsp), %rcx leaq 3680(%rsp), %rdx leaq L__crypto_kem_keypair_derand_jazz$8(%rip), %rdi jmp L_poly_tobytes$1 L__crypto_kem_keypair_derand_jazz$8: addq $384, %rcx leaq 4192(%rsp), %rdx leaq L__crypto_kem_keypair_derand_jazz$7(%rip), %rdi jmp L_poly_tobytes$1 L__crypto_kem_keypair_derand_jazz$7: addq $384, %rcx leaq 4704(%rsp), %rdx leaq L__crypto_kem_keypair_derand_jazz$6(%rip), %rdi jmp L_poly_tobytes$1 L__crypto_kem_keypair_derand_jazz$6: movq %rax, %rcx leaq 6752(%rsp), %rdx leaq L__crypto_kem_keypair_derand_jazz$5(%rip), %rdi jmp L_poly_tobytes$1 L__crypto_kem_keypair_derand_jazz$5: addq $384, %rcx leaq 7264(%rsp), %rdx leaq L__crypto_kem_keypair_derand_jazz$4(%rip), %rdi jmp L_poly_tobytes$1 L__crypto_kem_keypair_derand_jazz$4: addq $384, %rcx leaq 7776(%rsp), %rdx leaq L__crypto_kem_keypair_derand_jazz$3(%rip), %rdi jmp L_poly_tobytes$1 L__crypto_kem_keypair_derand_jazz$3: addq $1152, %rax movq (%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 8(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 16(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 24(%rsp), %rcx movq %rcx, (%rax) movq 12912(%rsp), %rax addq $1152, %rax movq 12904(%rsp), %rcx movq (%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 8(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 16(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 24(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 32(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 40(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 48(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 56(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 64(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 72(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 80(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 88(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 96(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 104(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 112(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 120(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 128(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 136(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 144(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 152(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 160(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 168(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 176(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 184(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 192(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 200(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 208(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 216(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 224(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 232(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 240(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 248(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 256(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 264(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 272(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 280(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 288(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 296(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 304(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 312(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 320(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 328(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 336(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 344(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 352(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 360(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 368(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 376(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 384(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 392(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 400(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 408(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 416(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 424(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 432(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 440(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 448(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 456(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 464(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 472(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 480(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 488(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 496(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 504(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 512(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 520(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 528(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 536(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 544(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 552(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 560(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 568(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 576(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 584(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 592(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 600(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 608(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 616(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 624(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 632(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 640(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 648(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 656(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 664(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 672(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 680(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 688(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 696(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 704(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 712(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 720(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 728(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 736(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 744(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 752(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 760(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 768(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 776(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 784(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 792(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 800(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 808(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 816(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 824(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 832(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 840(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 848(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 856(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 864(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 872(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 880(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 888(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 896(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 904(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 912(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 920(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 928(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 936(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 944(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 952(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 960(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 968(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 976(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 984(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 992(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1000(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1008(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1016(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1024(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1032(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1040(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1048(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1056(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1064(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1072(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1080(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1088(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1096(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1104(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1112(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1120(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1128(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1136(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1144(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1152(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1160(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1168(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1176(%rcx), %rcx movq %rcx, (%rax) addq $8, %rax movq %rax, 12912(%rsp) movq 12904(%rsp), %r8 movq $1184, %rdi movq %rsp, %rax leaq -256(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$2(%rip), %rcx movq %rcx, 224(%rsp) jmp L_sha3_256$1 L__crypto_kem_keypair_derand_jazz$2: leaq 256(%rsp), %rsp movq 12912(%rsp), %rax movq 12896(%rsp), %rcx movq %rsp, %rdx movb (%rdx), %sil movb %sil, (%rax) movb 1(%rdx), %sil movb %sil, 1(%rax) movb 2(%rdx), %sil movb %sil, 2(%rax) movb 3(%rdx), %sil movb %sil, 3(%rax) movb 4(%rdx), %sil movb %sil, 4(%rax) movb 5(%rdx), %sil movb %sil, 5(%rax) movb 6(%rdx), %sil movb %sil, 6(%rax) movb 7(%rdx), %sil movb %sil, 7(%rax) movb 8(%rdx), %sil movb %sil, 8(%rax) movb 9(%rdx), %sil movb %sil, 9(%rax) movb 10(%rdx), %sil movb %sil, 10(%rax) movb 11(%rdx), %sil movb %sil, 11(%rax) movb 12(%rdx), %sil movb %sil, 12(%rax) movb 13(%rdx), %sil movb %sil, 13(%rax) movb 14(%rdx), %sil movb %sil, 14(%rax) movb 15(%rdx), %sil movb %sil, 15(%rax) movb 16(%rdx), %sil movb %sil, 16(%rax) movb 17(%rdx), %sil movb %sil, 17(%rax) movb 18(%rdx), %sil movb %sil, 18(%rax) movb 19(%rdx), %sil movb %sil, 19(%rax) movb 20(%rdx), %sil movb %sil, 20(%rax) movb 21(%rdx), %sil movb %sil, 21(%rax) movb 22(%rdx), %sil movb %sil, 22(%rax) movb 23(%rdx), %sil movb %sil, 23(%rax) movb 24(%rdx), %sil movb %sil, 24(%rax) movb 25(%rdx), %sil movb %sil, 25(%rax) movb 26(%rdx), %sil movb %sil, 26(%rax) movb 27(%rdx), %sil movb %sil, 27(%rax) movb 28(%rdx), %sil movb %sil, 28(%rax) movb 29(%rdx), %sil movb %sil, 29(%rax) movb 30(%rdx), %sil movb %sil, 30(%rax) movb 31(%rdx), %dl movb %dl, 31(%rax) addq $32, %rax leaq 32(%rcx), %rcx movb (%rcx), %dl movb %dl, (%rax) movb 1(%rcx), %dl movb %dl, 1(%rax) movb 2(%rcx), %dl movb %dl, 2(%rax) movb 3(%rcx), %dl movb %dl, 3(%rax) movb 4(%rcx), %dl movb %dl, 4(%rax) movb 5(%rcx), %dl movb %dl, 5(%rax) movb 6(%rcx), %dl movb %dl, 6(%rax) movb 7(%rcx), %dl movb %dl, 7(%rax) movb 8(%rcx), %dl movb %dl, 8(%rax) movb 9(%rcx), %dl movb %dl, 9(%rax) movb 10(%rcx), %dl movb %dl, 10(%rax) movb 11(%rcx), %dl movb %dl, 11(%rax) movb 12(%rcx), %dl movb %dl, 12(%rax) movb 13(%rcx), %dl movb %dl, 13(%rax) movb 14(%rcx), %dl movb %dl, 14(%rax) movb 15(%rcx), %dl movb %dl, 15(%rax) movb 16(%rcx), %dl movb %dl, 16(%rax) movb 17(%rcx), %dl movb %dl, 17(%rax) movb 18(%rcx), %dl movb %dl, 18(%rax) movb 19(%rcx), %dl movb %dl, 19(%rax) movb 20(%rcx), %dl movb %dl, 20(%rax) movb 21(%rcx), %dl movb %dl, 21(%rax) movb 22(%rcx), %dl movb %dl, 22(%rax) movb 23(%rcx), %dl movb %dl, 23(%rax) movb 24(%rcx), %dl movb %dl, 24(%rax) movb 25(%rcx), %dl movb %dl, 25(%rax) movb 26(%rcx), %dl movb %dl, 26(%rax) movb 27(%rcx), %dl movb %dl, 27(%rax) movb 28(%rcx), %dl movb %dl, 28(%rax) movb 29(%rcx), %dl movb %dl, 29(%rax) movb 30(%rcx), %dl movb %dl, 30(%rax) movb 31(%rcx), %cl movb %cl, 31(%rax) jmp *13000(%rsp) L_rej_uniform_avx$1: leaq glob_data + 4128(%rip), %r10 vmovdqu glob_data + 448(%rip), %ymm0 movq $0, %r13 movq $0, %r12 vpbroadcastb glob_data + 6430(%rip), %ymm1 vpbroadcastw glob_data + 6416(%rip), %ymm2 vmovdqu glob_data + 0(%rip), %ymm3 cmpq $224, %r13 setbe %al cmpq $448, %r12 setbe %cl testb %cl, %al jmp L_rej_uniform_avx$9 L_rej_uniform_avx$10: vpermq $-108, (%rbp,%r12), %ymm4 vpermq $-108, 24(%rbp,%r12), %ymm5 vpshufb %ymm3, %ymm4, %ymm4 vpshufb %ymm3, %ymm5, %ymm5 vpsrlw $4, %ymm4, %ymm6 vpsrlw $4, %ymm5, %ymm7 vpblendw $-86, %ymm6, %ymm4, %ymm4 vpblendw $-86, %ymm7, %ymm5, %ymm5 vpand %ymm2, %ymm4, %ymm4 vpand %ymm2, %ymm5, %ymm5 vpcmpgtw %ymm4, %ymm0, %ymm6 vpcmpgtw %ymm5, %ymm0, %ymm7 vpacksswb %ymm7, %ymm6, %ymm6 vpmovmskb %ymm6, %rax movq %rax, %rcx andq $255, %rcx vmovq (%r10,%rcx,8), %xmm6 movq %rax, %rdx shrq $16, %rdx andq $255, %rdx vmovq (%r10,%rdx,8), %xmm7 movq %rax, %rsi shrq $8, %rsi andq $255, %rsi vmovq (%r10,%rsi,8), %xmm8 shrq $24, %rax andq $255, %rax vmovq (%r10,%rax,8), %xmm9 vinserti128 $1, %xmm7, %ymm6, %ymm6 popcnt %rcx, %rcx popcnt %rdx, %rdx addq %r13, %rcx vinserti128 $1, %xmm9, %ymm8, %ymm7 addq %rcx, %rdx popcnt %rsi, %rsi addq %rdx, %rsi popcnt %rax, %rax addq %rsi, %rax vpaddb %ymm1, %ymm6, %ymm8 vpunpcklbw %ymm8, %ymm6, %ymm6 vpaddb %ymm1, %ymm7, %ymm8 vpunpcklbw %ymm8, %ymm7, %ymm7 vpshufb %ymm6, %ymm4, %ymm4 vpshufb %ymm7, %ymm5, %ymm5 vmovdqu %xmm4, (%rbx,%r13,2) vextracti128 $1, %ymm4, (%rbx,%rcx,2) vmovdqu %xmm5, (%rbx,%rdx,2) vextracti128 $1, %ymm5, (%rbx,%rsi,2) movq %rax, %r13 cmpq $224, %r13 setbe %al addq $48, %r12 cmpq $448, %r12 setbe %cl testb %cl, %al L_rej_uniform_avx$9: jne L_rej_uniform_avx$10 cmpq $248, %r13 setbe %al cmpq $488, %r12 setbe %cl testb %cl, %al movq $21845, %rax jmp L_rej_uniform_avx$7 L_rej_uniform_avx$8: vmovdqu (%rbp,%r12), %xmm4 vpshufb %xmm3, %xmm4, %xmm4 vpsrlw $4, %xmm4, %xmm5 vpblendw $-86, %xmm5, %xmm4, %xmm4 vpand %xmm2, %xmm4, %xmm4 vpcmpgtw %xmm4, %xmm0, %xmm5 vpmovmskb %xmm5, %rcx pext %rax, %rcx, %rcx vmovq (%r10,%rcx,8), %xmm5 popcnt %rcx, %rcx vpaddb %xmm1, %xmm5, %xmm6 vpunpcklbw %xmm6, %xmm5, %xmm5 vpshufb %xmm5, %xmm4, %xmm4 vmovdqu %xmm4, (%rbx,%r13,2) addq %rcx, %r13 addq $12, %r12 cmpq $248, %r13 setbe %cl cmpq $488, %r12 setbe %dl testb %dl, %cl L_rej_uniform_avx$7: jne L_rej_uniform_avx$8 cmpq $255, %r13 setbe %al cmpq $501, %r12 setbe %cl testb %cl, %al jmp L_rej_uniform_avx$2 L_rej_uniform_avx$3: movzbw (%rbp,%r12), %ax incq %r12 movzbw (%rbp,%r12), %dx incq %r12 movw %dx, %cx shlw $8, %dx orw %dx, %ax andw $4095, %ax shrw $4, %cx movzbw (%rbp,%r12), %dx incq %r12 shlw $4, %dx orw %dx, %cx cmpw $3329, %ax jnb L_rej_uniform_avx$6 movw %ax, (%rbx,%r13,2) incq %r13 L_rej_uniform_avx$6: cmpw $3329, %cx jnb L_rej_uniform_avx$4 cmpq $256, %r13 jnb L_rej_uniform_avx$4 movw %cx, (%rbx,%r13,2) incq %r13 L_rej_uniform_avx$5: L_rej_uniform_avx$4: cmpq $255, %r13 setbe %al cmpq $501, %r12 setbe %cl testb %cl, %al L_rej_uniform_avx$2: jne L_rej_uniform_avx$3 jmp *%r11 L_poly_tomsg_1$1: leaq L_poly_tomsg_1$2(%rip), %r8 jmp L_poly_csubq$1 L_poly_tomsg_1$2: leaq glob_data + 224(%rip), %rsi vmovdqu (%rsi), %ymm0 leaq glob_data + 192(%rip), %rsi vmovdqu (%rsi), %ymm1 vmovdqu (%rcx), %ymm2 vmovdqu 32(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, (%rax) vmovdqu 64(%rcx), %ymm2 vmovdqu 96(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, 4(%rax) vmovdqu 128(%rcx), %ymm2 vmovdqu 160(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, 8(%rax) vmovdqu 192(%rcx), %ymm2 vmovdqu 224(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, 12(%rax) vmovdqu 256(%rcx), %ymm2 vmovdqu 288(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, 16(%rax) vmovdqu 320(%rcx), %ymm2 vmovdqu 352(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, 20(%rax) vmovdqu 384(%rcx), %ymm2 vmovdqu 416(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, 24(%rax) vmovdqu 448(%rcx), %ymm2 vmovdqu 480(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm0 vpsraw $15, %ymm2, %ymm3 vpsraw $15, %ymm0, %ymm4 vpxor %ymm3, %ymm2, %ymm2 vpxor %ymm4, %ymm0, %ymm0 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm0, %ymm0 vpacksswb %ymm0, %ymm2, %ymm0 vpermq $-40, %ymm0, %ymm0 vpmovmskb %ymm0, %ecx movl %ecx, 28(%rax) jmp *%rdi L_poly_tomsg$1: leaq L_poly_tomsg$2(%rip), %r8 jmp L_poly_csubq$1 L_poly_tomsg$2: leaq glob_data + 224(%rip), %rax vmovdqu (%rax), %ymm0 leaq glob_data + 192(%rip), %rax vmovdqu (%rax), %ymm1 vmovdqu (%rcx), %ymm2 vmovdqu 32(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, (%rdx) vmovdqu 64(%rcx), %ymm2 vmovdqu 96(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, 4(%rdx) vmovdqu 128(%rcx), %ymm2 vmovdqu 160(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, 8(%rdx) vmovdqu 192(%rcx), %ymm2 vmovdqu 224(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, 12(%rdx) vmovdqu 256(%rcx), %ymm2 vmovdqu 288(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, 16(%rdx) vmovdqu 320(%rcx), %ymm2 vmovdqu 352(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, 20(%rdx) vmovdqu 384(%rcx), %ymm2 vmovdqu 416(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, 24(%rdx) vmovdqu 448(%rcx), %ymm2 vmovdqu 480(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm0 vpsraw $15, %ymm2, %ymm3 vpsraw $15, %ymm0, %ymm4 vpxor %ymm3, %ymm2, %ymm2 vpxor %ymm4, %ymm0, %ymm0 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm0, %ymm0 vpacksswb %ymm0, %ymm2, %ymm0 vpermq $-40, %ymm0, %ymm0 vpmovmskb %ymm0, %eax movl %eax, 28(%rdx) jmp *%rsi L_poly_tobytes$1: leaq glob_data + 448(%rip), %rsi vmovdqu (%rsi), %ymm0 vmovdqu (%rdx), %ymm7 vmovdqu 32(%rdx), %ymm8 vmovdqu 64(%rdx), %ymm1 vmovdqu 96(%rdx), %ymm2 vmovdqu 128(%rdx), %ymm3 vmovdqu 160(%rdx), %ymm4 vmovdqu 192(%rdx), %ymm5 vmovdqu 224(%rdx), %ymm6 vpsubw %ymm0, %ymm7, %ymm7 vpsraw $15, %ymm7, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm7, %ymm9, %ymm7 vpsubw %ymm0, %ymm8, %ymm8 vpsraw $15, %ymm8, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm8, %ymm9, %ymm8 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm1, %ymm9, %ymm1 vpsubw %ymm0, %ymm2, %ymm2 vpsraw $15, %ymm2, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm2, %ymm9, %ymm2 vpsubw %ymm0, %ymm3, %ymm3 vpsraw $15, %ymm3, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm3, %ymm9, %ymm3 vpsubw %ymm0, %ymm4, %ymm4 vpsraw $15, %ymm4, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm4, %ymm9, %ymm4 vpsubw %ymm0, %ymm5, %ymm5 vpsraw $15, %ymm5, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm5, %ymm9, %ymm5 vpsubw %ymm0, %ymm6, %ymm6 vpsraw $15, %ymm6, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm6, %ymm9, %ymm6 vpsllw $12, %ymm8, %ymm9 vpor %ymm7, %ymm9, %ymm7 vpsrlw $4, %ymm8, %ymm8 vpsllw $8, %ymm1, %ymm9 vpor %ymm9, %ymm8, %ymm8 vpsrlw $8, %ymm1, %ymm1 vpsllw $4, %ymm2, %ymm2 vpor %ymm2, %ymm1, %ymm1 vpsllw $12, %ymm4, %ymm2 vpor %ymm3, %ymm2, %ymm2 vpsrlw $4, %ymm4, %ymm3 vpsllw $8, %ymm5, %ymm4 vpor %ymm4, %ymm3, %ymm3 vpsrlw $8, %ymm5, %ymm4 vpsllw $4, %ymm6, %ymm5 vpor %ymm5, %ymm4, %ymm4 vpslld $16, %ymm8, %ymm5 vpblendw $-86, %ymm5, %ymm7, %ymm5 vpsrld $16, %ymm7, %ymm6 vpblendw $-86, %ymm8, %ymm6, %ymm6 vpslld $16, %ymm2, %ymm7 vpblendw $-86, %ymm7, %ymm1, %ymm7 vpsrld $16, %ymm1, %ymm1 vpblendw $-86, %ymm2, %ymm1, %ymm1 vpslld $16, %ymm4, %ymm2 vpblendw $-86, %ymm2, %ymm3, %ymm8 vpsrld $16, %ymm3, %ymm2 vpblendw $-86, %ymm4, %ymm2, %ymm2 vmovsldup %ymm7, %ymm3 vpblendd $-86, %ymm3, %ymm5, %ymm3 vpsrlq $32, %ymm5, %ymm4 vpblendd $-86, %ymm7, %ymm4, %ymm4 vmovsldup %ymm6, %ymm5 vpblendd $-86, %ymm5, %ymm8, %ymm5 vpsrlq $32, %ymm8, %ymm7 vpblendd $-86, %ymm6, %ymm7, %ymm6 vmovsldup %ymm2, %ymm7 vpblendd $-86, %ymm7, %ymm1, %ymm7 vpsrlq $32, %ymm1, %ymm1 vpblendd $-86, %ymm2, %ymm1, %ymm1 vpunpcklqdq %ymm5, %ymm3, %ymm2 vpunpckhqdq %ymm5, %ymm3, %ymm3 vpunpcklqdq %ymm4, %ymm7, %ymm5 vpunpckhqdq %ymm4, %ymm7, %ymm4 vpunpcklqdq %ymm1, %ymm6, %ymm7 vpunpckhqdq %ymm1, %ymm6, %ymm1 vperm2i128 $32, %ymm5, %ymm2, %ymm6 vperm2i128 $49, %ymm5, %ymm2, %ymm2 vperm2i128 $32, %ymm3, %ymm7, %ymm5 vperm2i128 $49, %ymm3, %ymm7, %ymm3 vperm2i128 $32, %ymm1, %ymm4, %ymm7 vperm2i128 $49, %ymm1, %ymm4, %ymm1 vmovdqu %ymm6, (%rcx) vmovdqu %ymm5, 32(%rcx) vmovdqu %ymm7, 64(%rcx) vmovdqu %ymm2, 96(%rcx) vmovdqu %ymm3, 128(%rcx) vmovdqu %ymm1, 160(%rcx) vmovdqu 256(%rdx), %ymm7 vmovdqu 288(%rdx), %ymm8 vmovdqu 320(%rdx), %ymm1 vmovdqu 352(%rdx), %ymm2 vmovdqu 384(%rdx), %ymm3 vmovdqu 416(%rdx), %ymm4 vmovdqu 448(%rdx), %ymm5 vmovdqu 480(%rdx), %ymm6 vpsubw %ymm0, %ymm7, %ymm7 vpsraw $15, %ymm7, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm7, %ymm9, %ymm7 vpsubw %ymm0, %ymm8, %ymm8 vpsraw $15, %ymm8, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm8, %ymm9, %ymm8 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm1, %ymm9, %ymm1 vpsubw %ymm0, %ymm2, %ymm2 vpsraw $15, %ymm2, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm2, %ymm9, %ymm2 vpsubw %ymm0, %ymm3, %ymm3 vpsraw $15, %ymm3, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm3, %ymm9, %ymm3 vpsubw %ymm0, %ymm4, %ymm4 vpsraw $15, %ymm4, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm4, %ymm9, %ymm4 vpsubw %ymm0, %ymm5, %ymm5 vpsraw $15, %ymm5, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm5, %ymm9, %ymm5 vpsubw %ymm0, %ymm6, %ymm6 vpsraw $15, %ymm6, %ymm9 vpand %ymm0, %ymm9, %ymm0 vpaddw %ymm6, %ymm0, %ymm0 vpsllw $12, %ymm8, %ymm6 vpor %ymm7, %ymm6, %ymm6 vpsrlw $4, %ymm8, %ymm7 vpsllw $8, %ymm1, %ymm8 vpor %ymm8, %ymm7, %ymm7 vpsrlw $8, %ymm1, %ymm1 vpsllw $4, %ymm2, %ymm2 vpor %ymm2, %ymm1, %ymm1 vpsllw $12, %ymm4, %ymm2 vpor %ymm3, %ymm2, %ymm2 vpsrlw $4, %ymm4, %ymm3 vpsllw $8, %ymm5, %ymm4 vpor %ymm4, %ymm3, %ymm3 vpsrlw $8, %ymm5, %ymm4 vpsllw $4, %ymm0, %ymm0 vpor %ymm0, %ymm4, %ymm0 vpslld $16, %ymm7, %ymm4 vpblendw $-86, %ymm4, %ymm6, %ymm4 vpsrld $16, %ymm6, %ymm5 vpblendw $-86, %ymm7, %ymm5, %ymm5 vpslld $16, %ymm2, %ymm6 vpblendw $-86, %ymm6, %ymm1, %ymm6 vpsrld $16, %ymm1, %ymm1 vpblendw $-86, %ymm2, %ymm1, %ymm1 vpslld $16, %ymm0, %ymm2 vpblendw $-86, %ymm2, %ymm3, %ymm7 vpsrld $16, %ymm3, %ymm2 vpblendw $-86, %ymm0, %ymm2, %ymm0 vmovsldup %ymm6, %ymm2 vpblendd $-86, %ymm2, %ymm4, %ymm2 vpsrlq $32, %ymm4, %ymm3 vpblendd $-86, %ymm6, %ymm3, %ymm3 vmovsldup %ymm5, %ymm4 vpblendd $-86, %ymm4, %ymm7, %ymm4 vpsrlq $32, %ymm7, %ymm6 vpblendd $-86, %ymm5, %ymm6, %ymm5 vmovsldup %ymm0, %ymm6 vpblendd $-86, %ymm6, %ymm1, %ymm6 vpsrlq $32, %ymm1, %ymm1 vpblendd $-86, %ymm0, %ymm1, %ymm0 vpunpcklqdq %ymm4, %ymm2, %ymm1 vpunpckhqdq %ymm4, %ymm2, %ymm2 vpunpcklqdq %ymm3, %ymm6, %ymm4 vpunpckhqdq %ymm3, %ymm6, %ymm3 vpunpcklqdq %ymm0, %ymm5, %ymm6 vpunpckhqdq %ymm0, %ymm5, %ymm0 vperm2i128 $32, %ymm4, %ymm1, %ymm5 vperm2i128 $49, %ymm4, %ymm1, %ymm1 vperm2i128 $32, %ymm2, %ymm6, %ymm4 vperm2i128 $49, %ymm2, %ymm6, %ymm2 vperm2i128 $32, %ymm0, %ymm3, %ymm6 vperm2i128 $49, %ymm0, %ymm3, %ymm0 vmovdqu %ymm5, 192(%rcx) vmovdqu %ymm4, 224(%rcx) vmovdqu %ymm6, 256(%rcx) vmovdqu %ymm1, 288(%rcx) vmovdqu %ymm2, 320(%rcx) vmovdqu %ymm0, 352(%rcx) jmp *%rdi L_poly_sub$1: vmovdqu (%rsi), %ymm0 vmovdqu (%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, (%rcx) vmovdqu 32(%rsi), %ymm0 vmovdqu 32(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 32(%rcx) vmovdqu 64(%rsi), %ymm0 vmovdqu 64(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 64(%rcx) vmovdqu 96(%rsi), %ymm0 vmovdqu 96(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 96(%rcx) vmovdqu 128(%rsi), %ymm0 vmovdqu 128(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 128(%rcx) vmovdqu 160(%rsi), %ymm0 vmovdqu 160(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 160(%rcx) vmovdqu 192(%rsi), %ymm0 vmovdqu 192(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 192(%rcx) vmovdqu 224(%rsi), %ymm0 vmovdqu 224(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 224(%rcx) vmovdqu 256(%rsi), %ymm0 vmovdqu 256(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 256(%rcx) vmovdqu 288(%rsi), %ymm0 vmovdqu 288(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 288(%rcx) vmovdqu 320(%rsi), %ymm0 vmovdqu 320(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 320(%rcx) vmovdqu 352(%rsi), %ymm0 vmovdqu 352(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 352(%rcx) vmovdqu 384(%rsi), %ymm0 vmovdqu 384(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 384(%rcx) vmovdqu 416(%rsi), %ymm0 vmovdqu 416(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 416(%rcx) vmovdqu 448(%rsi), %ymm0 vmovdqu 448(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 448(%rcx) vmovdqu 480(%rsi), %ymm0 vmovdqu 480(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 480(%rcx) jmp *%r8 L_poly_ntt$1: leaq glob_data + 1280(%rip), %rsi vmovdqu glob_data + 448(%rip), %ymm0 vpbroadcastd (%rsi), %ymm1 vpbroadcastd 4(%rsi), %ymm2 vmovdqu (%rcx), %ymm3 vmovdqu 32(%rcx), %ymm14 vmovdqu 64(%rcx), %ymm4 vmovdqu 96(%rcx), %ymm5 vmovdqu 256(%rcx), %ymm6 vmovdqu 288(%rcx), %ymm7 vmovdqu 320(%rcx), %ymm12 vmovdqu 352(%rcx), %ymm8 vpmullw %ymm6, %ymm1, %ymm9 vpmulhw %ymm6, %ymm2, %ymm6 vpmullw %ymm7, %ymm1, %ymm10 vpmulhw %ymm7, %ymm2, %ymm15 vpmullw %ymm12, %ymm1, %ymm11 vpmulhw %ymm12, %ymm2, %ymm7 vpmullw %ymm8, %ymm1, %ymm12 vpmulhw %ymm8, %ymm2, %ymm8 vpmulhw %ymm0, %ymm9, %ymm9 vpmulhw %ymm0, %ymm10, %ymm10 vpmulhw %ymm0, %ymm11, %ymm11 vpmulhw %ymm0, %ymm12, %ymm12 vpsubw %ymm15, %ymm14, %ymm13 vpaddw %ymm14, %ymm15, %ymm14 vpsubw %ymm6, %ymm3, %ymm15 vpaddw %ymm3, %ymm6, %ymm3 vpsubw %ymm8, %ymm5, %ymm6 vpaddw %ymm5, %ymm8, %ymm5 vpsubw %ymm7, %ymm4, %ymm8 vpaddw %ymm4, %ymm7, %ymm4 vpaddw %ymm15, %ymm9, %ymm7 vpsubw %ymm9, %ymm3, %ymm3 vpaddw %ymm13, %ymm10, %ymm9 vpsubw %ymm10, %ymm14, %ymm10 vpaddw %ymm8, %ymm11, %ymm8 vpsubw %ymm11, %ymm4, %ymm4 vpaddw %ymm6, %ymm12, %ymm6 vpsubw %ymm12, %ymm5, %ymm5 vmovdqu %ymm3, (%rcx) vmovdqu %ymm10, 32(%rcx) vmovdqu %ymm4, 64(%rcx) vmovdqu %ymm5, 96(%rcx) vmovdqu %ymm7, 256(%rcx) vmovdqu %ymm9, 288(%rcx) vmovdqu %ymm8, 320(%rcx) vmovdqu %ymm6, 352(%rcx) vmovdqu 128(%rcx), %ymm3 vmovdqu 160(%rcx), %ymm12 vmovdqu 192(%rcx), %ymm4 vmovdqu 224(%rcx), %ymm5 vmovdqu 384(%rcx), %ymm6 vmovdqu 416(%rcx), %ymm7 vmovdqu 448(%rcx), %ymm10 vmovdqu 480(%rcx), %ymm11 vpmullw %ymm6, %ymm1, %ymm14 vpmulhw %ymm6, %ymm2, %ymm6 vpmullw %ymm7, %ymm1, %ymm8 vpmulhw %ymm7, %ymm2, %ymm13 vpmullw %ymm10, %ymm1, %ymm9 vpmulhw %ymm10, %ymm2, %ymm7 vpmullw %ymm11, %ymm1, %ymm10 vpmulhw %ymm11, %ymm2, %ymm1 vpmulhw %ymm0, %ymm14, %ymm2 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhw %ymm0, %ymm9, %ymm9 vpmulhw %ymm0, %ymm10, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm6, %ymm3, %ymm13 vpaddw %ymm3, %ymm6, %ymm3 vpsubw %ymm1, %ymm5, %ymm6 vpaddw %ymm5, %ymm1, %ymm1 vpsubw %ymm7, %ymm4, %ymm5 vpaddw %ymm4, %ymm7, %ymm4 vpaddw %ymm13, %ymm2, %ymm7 vpsubw %ymm2, %ymm3, %ymm2 vpaddw %ymm11, %ymm8, %ymm3 vpsubw %ymm8, %ymm12, %ymm8 vpaddw %ymm5, %ymm9, %ymm5 vpsubw %ymm9, %ymm4, %ymm9 vpaddw %ymm6, %ymm10, %ymm4 vpsubw %ymm10, %ymm1, %ymm14 vmovdqu %ymm7, 384(%rcx) vmovdqu %ymm3, 416(%rcx) vmovdqu %ymm5, 448(%rcx) vmovdqu %ymm4, 480(%rcx) vpbroadcastd 8(%rsi), %ymm1 vpbroadcastd 12(%rsi), %ymm4 vmovdqu %ymm8, %ymm10 vmovdqu %ymm9, %ymm3 vmovdqu (%rcx), %ymm6 vmovdqu 32(%rcx), %ymm5 vmovdqu 64(%rcx), %ymm9 vmovdqu 96(%rcx), %ymm7 vpmullw %ymm2, %ymm1, %ymm11 vpmulhw %ymm2, %ymm4, %ymm8 vpmullw %ymm10, %ymm1, %ymm13 vpmulhw %ymm10, %ymm4, %ymm12 vpmullw %ymm3, %ymm1, %ymm2 vpmulhw %ymm3, %ymm4, %ymm10 vpmullw %ymm14, %ymm1, %ymm3 vpmulhw %ymm14, %ymm4, %ymm14 vpmulhw %ymm0, %ymm11, %ymm11 vpmulhw %ymm0, %ymm13, %ymm1 vpmulhw %ymm0, %ymm2, %ymm2 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm12, %ymm5, %ymm4 vpaddw %ymm5, %ymm12, %ymm5 vpsubw %ymm8, %ymm6, %ymm12 vpaddw %ymm6, %ymm8, %ymm13 vpsubw %ymm14, %ymm7, %ymm6 vpaddw %ymm7, %ymm14, %ymm7 vpsubw %ymm10, %ymm9, %ymm8 vpaddw %ymm9, %ymm10, %ymm9 vpaddw %ymm12, %ymm11, %ymm10 vpsubw %ymm11, %ymm13, %ymm12 vpaddw %ymm4, %ymm1, %ymm4 vpsubw %ymm1, %ymm5, %ymm5 vpaddw %ymm8, %ymm2, %ymm8 vpsubw %ymm2, %ymm9, %ymm2 vpaddw %ymm6, %ymm3, %ymm13 vpsubw %ymm3, %ymm7, %ymm7 vmovdqu 16(%rsi), %ymm3 vmovdqu 48(%rsi), %ymm6 vperm2i128 $32, %ymm10, %ymm12, %ymm11 vperm2i128 $49, %ymm10, %ymm12, %ymm9 vperm2i128 $32, %ymm4, %ymm5, %ymm1 vperm2i128 $49, %ymm4, %ymm5, %ymm12 vperm2i128 $32, %ymm8, %ymm2, %ymm5 vperm2i128 $49, %ymm8, %ymm2, %ymm8 vperm2i128 $32, %ymm13, %ymm7, %ymm2 vperm2i128 $49, %ymm13, %ymm7, %ymm13 vpmullw %ymm5, %ymm3, %ymm4 vpmulhw %ymm5, %ymm6, %ymm10 vpmullw %ymm8, %ymm3, %ymm14 vpmulhw %ymm8, %ymm6, %ymm8 vpmullw %ymm2, %ymm3, %ymm5 vpmulhw %ymm2, %ymm6, %ymm2 vpmullw %ymm13, %ymm3, %ymm7 vpmulhw %ymm13, %ymm6, %ymm13 vpmulhw %ymm0, %ymm4, %ymm3 vpmulhw %ymm0, %ymm14, %ymm4 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm7, %ymm6 vpsubw %ymm8, %ymm9, %ymm7 vpaddw %ymm9, %ymm8, %ymm8 vpsubw %ymm10, %ymm11, %ymm9 vpaddw %ymm11, %ymm10, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm2, %ymm1, %ymm13 vpaddw %ymm1, %ymm2, %ymm1 vpaddw %ymm9, %ymm3, %ymm2 vpsubw %ymm3, %ymm10, %ymm9 vpaddw %ymm7, %ymm4, %ymm3 vpsubw %ymm4, %ymm8, %ymm4 vpaddw %ymm13, %ymm5, %ymm7 vpsubw %ymm5, %ymm1, %ymm13 vpaddw %ymm11, %ymm6, %ymm11 vpsubw %ymm6, %ymm12, %ymm14 vmovdqu 80(%rsi), %ymm1 vmovdqu 112(%rsi), %ymm10 vpunpcklqdq %ymm2, %ymm9, %ymm5 vpunpckhqdq %ymm2, %ymm9, %ymm12 vpunpcklqdq %ymm3, %ymm4, %ymm8 vpunpckhqdq %ymm3, %ymm4, %ymm6 vpunpcklqdq %ymm7, %ymm13, %ymm2 vpunpckhqdq %ymm7, %ymm13, %ymm4 vpunpcklqdq %ymm11, %ymm14, %ymm3 vpunpckhqdq %ymm11, %ymm14, %ymm7 vpmullw %ymm2, %ymm1, %ymm11 vpmulhw %ymm2, %ymm10, %ymm13 vpmullw %ymm4, %ymm1, %ymm14 vpmulhw %ymm4, %ymm10, %ymm4 vpmullw %ymm3, %ymm1, %ymm2 vpmulhw %ymm3, %ymm10, %ymm9 vpmullw %ymm7, %ymm1, %ymm3 vpmulhw %ymm7, %ymm10, %ymm7 vpmulhw %ymm0, %ymm11, %ymm10 vpmulhw %ymm0, %ymm14, %ymm1 vpmulhw %ymm0, %ymm2, %ymm2 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm4, %ymm12, %ymm11 vpaddw %ymm12, %ymm4, %ymm4 vpsubw %ymm13, %ymm5, %ymm12 vpaddw %ymm5, %ymm13, %ymm13 vpsubw %ymm7, %ymm6, %ymm5 vpaddw %ymm6, %ymm7, %ymm6 vpsubw %ymm9, %ymm8, %ymm7 vpaddw %ymm8, %ymm9, %ymm8 vpaddw %ymm12, %ymm10, %ymm9 vpsubw %ymm10, %ymm13, %ymm12 vpaddw %ymm11, %ymm1, %ymm10 vpsubw %ymm1, %ymm4, %ymm4 vpaddw %ymm7, %ymm2, %ymm7 vpsubw %ymm2, %ymm8, %ymm2 vpaddw %ymm5, %ymm3, %ymm13 vpsubw %ymm3, %ymm6, %ymm6 vmovdqu 144(%rsi), %ymm3 vmovdqu 176(%rsi), %ymm5 vmovsldup %ymm9, %ymm1 vpblendd $-86, %ymm1, %ymm12, %ymm11 vpsrlq $32, %ymm12, %ymm1 vpblendd $-86, %ymm9, %ymm1, %ymm8 vmovsldup %ymm10, %ymm1 vpblendd $-86, %ymm1, %ymm4, %ymm1 vpsrlq $32, %ymm4, %ymm4 vpblendd $-86, %ymm10, %ymm4, %ymm12 vmovsldup %ymm7, %ymm4 vpblendd $-86, %ymm4, %ymm2, %ymm9 vpsrlq $32, %ymm2, %ymm2 vpblendd $-86, %ymm7, %ymm2, %ymm7 vmovsldup %ymm13, %ymm2 vpblendd $-86, %ymm2, %ymm6, %ymm2 vpsrlq $32, %ymm6, %ymm4 vpblendd $-86, %ymm13, %ymm4, %ymm13 vpmullw %ymm9, %ymm3, %ymm4 vpmulhw %ymm9, %ymm5, %ymm10 vpmullw %ymm7, %ymm3, %ymm14 vpmulhw %ymm7, %ymm5, %ymm9 vpmullw %ymm2, %ymm3, %ymm6 vpmulhw %ymm2, %ymm5, %ymm2 vpmullw %ymm13, %ymm3, %ymm7 vpmulhw %ymm13, %ymm5, %ymm13 vpmulhw %ymm0, %ymm4, %ymm3 vpmulhw %ymm0, %ymm14, %ymm4 vpmulhw %ymm0, %ymm6, %ymm5 vpmulhw %ymm0, %ymm7, %ymm6 vpsubw %ymm9, %ymm8, %ymm7 vpaddw %ymm8, %ymm9, %ymm8 vpsubw %ymm10, %ymm11, %ymm9 vpaddw %ymm11, %ymm10, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm2, %ymm1, %ymm13 vpaddw %ymm1, %ymm2, %ymm1 vpaddw %ymm9, %ymm3, %ymm2 vpsubw %ymm3, %ymm10, %ymm9 vpaddw %ymm7, %ymm4, %ymm3 vpsubw %ymm4, %ymm8, %ymm4 vpaddw %ymm13, %ymm5, %ymm7 vpsubw %ymm5, %ymm1, %ymm13 vpaddw %ymm11, %ymm6, %ymm11 vpsubw %ymm6, %ymm12, %ymm14 vmovdqu 208(%rsi), %ymm5 vmovdqu 240(%rsi), %ymm6 vpslld $16, %ymm2, %ymm1 vpblendw $-86, %ymm1, %ymm9, %ymm10 vpsrld $16, %ymm9, %ymm1 vpblendw $-86, %ymm2, %ymm1, %ymm8 vpslld $16, %ymm3, %ymm1 vpblendw $-86, %ymm1, %ymm4, %ymm1 vpsrld $16, %ymm4, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm12 vpslld $16, %ymm7, %ymm2 vpblendw $-86, %ymm2, %ymm13, %ymm4 vpsrld $16, %ymm13, %ymm2 vpblendw $-86, %ymm7, %ymm2, %ymm7 vpslld $16, %ymm11, %ymm2 vpblendw $-86, %ymm2, %ymm14, %ymm2 vpsrld $16, %ymm14, %ymm3 vpblendw $-86, %ymm11, %ymm3, %ymm13 vpmullw %ymm4, %ymm5, %ymm3 vpmulhw %ymm4, %ymm6, %ymm11 vpmullw %ymm7, %ymm5, %ymm4 vpmulhw %ymm7, %ymm6, %ymm9 vpmullw %ymm2, %ymm5, %ymm7 vpmulhw %ymm2, %ymm6, %ymm2 vpmullw %ymm13, %ymm5, %ymm14 vpmulhw %ymm13, %ymm6, %ymm13 vpmulhw %ymm0, %ymm3, %ymm3 vpmulhw %ymm0, %ymm4, %ymm4 vpmulhw %ymm0, %ymm7, %ymm5 vpmulhw %ymm0, %ymm14, %ymm6 vpsubw %ymm9, %ymm8, %ymm7 vpaddw %ymm8, %ymm9, %ymm8 vpsubw %ymm11, %ymm10, %ymm9 vpaddw %ymm10, %ymm11, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm2, %ymm1, %ymm13 vpaddw %ymm1, %ymm2, %ymm1 vpaddw %ymm9, %ymm3, %ymm2 vpsubw %ymm3, %ymm10, %ymm3 vpaddw %ymm7, %ymm4, %ymm7 vpsubw %ymm4, %ymm8, %ymm4 vpaddw %ymm13, %ymm5, %ymm8 vpsubw %ymm5, %ymm1, %ymm1 vpaddw %ymm11, %ymm6, %ymm5 vpsubw %ymm6, %ymm12, %ymm10 vmovdqu 272(%rsi), %ymm9 vmovdqu 304(%rsi), %ymm13 vmovdqu 336(%rsi), %ymm11 vmovdqu 368(%rsi), %ymm6 vpmullw %ymm1, %ymm9, %ymm14 vpmulhw %ymm1, %ymm13, %ymm12 vpmullw %ymm10, %ymm9, %ymm9 vpmulhw %ymm10, %ymm13, %ymm13 vpmullw %ymm8, %ymm11, %ymm10 vpmulhw %ymm8, %ymm6, %ymm1 vpmullw %ymm5, %ymm11, %ymm11 vpmulhw %ymm5, %ymm6, %ymm5 vpmulhw %ymm0, %ymm14, %ymm6 vpmulhw %ymm0, %ymm9, %ymm8 vpmulhw %ymm0, %ymm10, %ymm9 vpmulhw %ymm0, %ymm11, %ymm10 vpsubw %ymm13, %ymm4, %ymm11 vpaddw %ymm4, %ymm13, %ymm4 vpsubw %ymm12, %ymm3, %ymm13 vpaddw %ymm3, %ymm12, %ymm3 vpsubw %ymm5, %ymm7, %ymm12 vpaddw %ymm7, %ymm5, %ymm5 vpsubw %ymm1, %ymm2, %ymm7 vpaddw %ymm2, %ymm1, %ymm1 vpaddw %ymm13, %ymm6, %ymm2 vpsubw %ymm6, %ymm3, %ymm3 vpaddw %ymm11, %ymm8, %ymm6 vpsubw %ymm8, %ymm4, %ymm4 vpaddw %ymm7, %ymm9, %ymm7 vpsubw %ymm9, %ymm1, %ymm8 vpaddw %ymm12, %ymm10, %ymm1 vpsubw %ymm10, %ymm5, %ymm5 vmovdqu glob_data + 384(%rip), %ymm9 vpmulhw %ymm9, %ymm3, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm3, %ymm3 vpmulhw %ymm9, %ymm4, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm4, %ymm4 vpmulhw %ymm9, %ymm8, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm8, %ymm8 vpmulhw %ymm9, %ymm5, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm5, %ymm5 vpmulhw %ymm9, %ymm2, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm2, %ymm2 vpmulhw %ymm9, %ymm6, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm6, %ymm6 vpmulhw %ymm9, %ymm7, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm7, %ymm7 vpmulhw %ymm9, %ymm1, %ymm9 vpsraw $10, %ymm9, %ymm9 vpmullw %ymm0, %ymm9, %ymm9 vpsubw %ymm9, %ymm1, %ymm1 vmovdqu %ymm3, (%rcx) vmovdqu %ymm4, 32(%rcx) vmovdqu %ymm2, 64(%rcx) vmovdqu %ymm6, 96(%rcx) vmovdqu %ymm8, 128(%rcx) vmovdqu %ymm5, 160(%rcx) vmovdqu %ymm7, 192(%rcx) vmovdqu %ymm1, 224(%rcx) vpbroadcastd 400(%rsi), %ymm5 vpbroadcastd 404(%rsi), %ymm8 vmovdqu 384(%rcx), %ymm1 vmovdqu 416(%rcx), %ymm2 vmovdqu 448(%rcx), %ymm10 vmovdqu 480(%rcx), %ymm9 vmovdqu 256(%rcx), %ymm3 vmovdqu 288(%rcx), %ymm7 vmovdqu 320(%rcx), %ymm6 vmovdqu 352(%rcx), %ymm4 vpmullw %ymm1, %ymm5, %ymm14 vpmulhw %ymm1, %ymm8, %ymm12 vpmullw %ymm2, %ymm5, %ymm1 vpmulhw %ymm2, %ymm8, %ymm11 vpmullw %ymm10, %ymm5, %ymm2 vpmulhw %ymm10, %ymm8, %ymm13 vpmullw %ymm9, %ymm5, %ymm10 vpmulhw %ymm9, %ymm8, %ymm5 vpmulhw %ymm0, %ymm14, %ymm8 vpmulhw %ymm0, %ymm1, %ymm9 vpmulhw %ymm0, %ymm2, %ymm1 vpmulhw %ymm0, %ymm10, %ymm2 vpsubw %ymm11, %ymm7, %ymm10 vpaddw %ymm7, %ymm11, %ymm11 vpsubw %ymm12, %ymm3, %ymm7 vpaddw %ymm3, %ymm12, %ymm12 vpsubw %ymm5, %ymm4, %ymm3 vpaddw %ymm4, %ymm5, %ymm4 vpsubw %ymm13, %ymm6, %ymm5 vpaddw %ymm6, %ymm13, %ymm6 vpaddw %ymm7, %ymm8, %ymm7 vpsubw %ymm8, %ymm12, %ymm12 vpaddw %ymm10, %ymm9, %ymm8 vpsubw %ymm9, %ymm11, %ymm9 vpaddw %ymm5, %ymm1, %ymm5 vpsubw %ymm1, %ymm6, %ymm6 vpaddw %ymm3, %ymm2, %ymm13 vpsubw %ymm2, %ymm4, %ymm2 vmovdqu 408(%rsi), %ymm3 vmovdqu 440(%rsi), %ymm4 vperm2i128 $32, %ymm7, %ymm12, %ymm10 vperm2i128 $49, %ymm7, %ymm12, %ymm11 vperm2i128 $32, %ymm8, %ymm9, %ymm1 vperm2i128 $49, %ymm8, %ymm9, %ymm12 vperm2i128 $32, %ymm5, %ymm6, %ymm8 vperm2i128 $49, %ymm5, %ymm6, %ymm5 vperm2i128 $32, %ymm13, %ymm2, %ymm6 vperm2i128 $49, %ymm13, %ymm2, %ymm13 vpmullw %ymm8, %ymm3, %ymm7 vpmulhw %ymm8, %ymm4, %ymm14 vpmullw %ymm5, %ymm3, %ymm9 vpmulhw %ymm5, %ymm4, %ymm8 vpmullw %ymm6, %ymm3, %ymm5 vpmulhw %ymm6, %ymm4, %ymm2 vpmullw %ymm13, %ymm3, %ymm6 vpmulhw %ymm13, %ymm4, %ymm13 vpmulhw %ymm0, %ymm7, %ymm3 vpmulhw %ymm0, %ymm9, %ymm4 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm8, %ymm11, %ymm7 vpaddw %ymm11, %ymm8, %ymm8 vpsubw %ymm14, %ymm10, %ymm9 vpaddw %ymm10, %ymm14, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm2, %ymm1, %ymm13 vpaddw %ymm1, %ymm2, %ymm1 vpaddw %ymm9, %ymm3, %ymm2 vpsubw %ymm3, %ymm10, %ymm9 vpaddw %ymm7, %ymm4, %ymm3 vpsubw %ymm4, %ymm8, %ymm4 vpaddw %ymm13, %ymm5, %ymm7 vpsubw %ymm5, %ymm1, %ymm13 vpaddw %ymm11, %ymm6, %ymm11 vpsubw %ymm6, %ymm12, %ymm14 vmovdqu 472(%rsi), %ymm1 vmovdqu 504(%rsi), %ymm10 vpunpcklqdq %ymm2, %ymm9, %ymm5 vpunpckhqdq %ymm2, %ymm9, %ymm12 vpunpcklqdq %ymm3, %ymm4, %ymm8 vpunpckhqdq %ymm3, %ymm4, %ymm6 vpunpcklqdq %ymm7, %ymm13, %ymm2 vpunpckhqdq %ymm7, %ymm13, %ymm4 vpunpcklqdq %ymm11, %ymm14, %ymm3 vpunpckhqdq %ymm11, %ymm14, %ymm7 vpmullw %ymm2, %ymm1, %ymm11 vpmulhw %ymm2, %ymm10, %ymm13 vpmullw %ymm4, %ymm1, %ymm14 vpmulhw %ymm4, %ymm10, %ymm4 vpmullw %ymm3, %ymm1, %ymm2 vpmulhw %ymm3, %ymm10, %ymm9 vpmullw %ymm7, %ymm1, %ymm3 vpmulhw %ymm7, %ymm10, %ymm7 vpmulhw %ymm0, %ymm11, %ymm10 vpmulhw %ymm0, %ymm14, %ymm1 vpmulhw %ymm0, %ymm2, %ymm2 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm4, %ymm12, %ymm11 vpaddw %ymm12, %ymm4, %ymm4 vpsubw %ymm13, %ymm5, %ymm12 vpaddw %ymm5, %ymm13, %ymm13 vpsubw %ymm7, %ymm6, %ymm5 vpaddw %ymm6, %ymm7, %ymm6 vpsubw %ymm9, %ymm8, %ymm7 vpaddw %ymm8, %ymm9, %ymm8 vpaddw %ymm12, %ymm10, %ymm9 vpsubw %ymm10, %ymm13, %ymm12 vpaddw %ymm11, %ymm1, %ymm10 vpsubw %ymm1, %ymm4, %ymm4 vpaddw %ymm7, %ymm2, %ymm7 vpsubw %ymm2, %ymm8, %ymm2 vpaddw %ymm5, %ymm3, %ymm13 vpsubw %ymm3, %ymm6, %ymm6 vmovdqu 536(%rsi), %ymm3 vmovdqu 568(%rsi), %ymm5 vmovsldup %ymm9, %ymm1 vpblendd $-86, %ymm1, %ymm12, %ymm11 vpsrlq $32, %ymm12, %ymm1 vpblendd $-86, %ymm9, %ymm1, %ymm8 vmovsldup %ymm10, %ymm1 vpblendd $-86, %ymm1, %ymm4, %ymm1 vpsrlq $32, %ymm4, %ymm4 vpblendd $-86, %ymm10, %ymm4, %ymm12 vmovsldup %ymm7, %ymm4 vpblendd $-86, %ymm4, %ymm2, %ymm9 vpsrlq $32, %ymm2, %ymm2 vpblendd $-86, %ymm7, %ymm2, %ymm7 vmovsldup %ymm13, %ymm2 vpblendd $-86, %ymm2, %ymm6, %ymm2 vpsrlq $32, %ymm6, %ymm4 vpblendd $-86, %ymm13, %ymm4, %ymm13 vpmullw %ymm9, %ymm3, %ymm4 vpmulhw %ymm9, %ymm5, %ymm10 vpmullw %ymm7, %ymm3, %ymm14 vpmulhw %ymm7, %ymm5, %ymm9 vpmullw %ymm2, %ymm3, %ymm6 vpmulhw %ymm2, %ymm5, %ymm2 vpmullw %ymm13, %ymm3, %ymm7 vpmulhw %ymm13, %ymm5, %ymm13 vpmulhw %ymm0, %ymm4, %ymm3 vpmulhw %ymm0, %ymm14, %ymm4 vpmulhw %ymm0, %ymm6, %ymm5 vpmulhw %ymm0, %ymm7, %ymm6 vpsubw %ymm9, %ymm8, %ymm7 vpaddw %ymm8, %ymm9, %ymm8 vpsubw %ymm10, %ymm11, %ymm9 vpaddw %ymm11, %ymm10, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm2, %ymm1, %ymm13 vpaddw %ymm1, %ymm2, %ymm1 vpaddw %ymm9, %ymm3, %ymm2 vpsubw %ymm3, %ymm10, %ymm9 vpaddw %ymm7, %ymm4, %ymm3 vpsubw %ymm4, %ymm8, %ymm4 vpaddw %ymm13, %ymm5, %ymm7 vpsubw %ymm5, %ymm1, %ymm13 vpaddw %ymm11, %ymm6, %ymm11 vpsubw %ymm6, %ymm12, %ymm14 vmovdqu 600(%rsi), %ymm5 vmovdqu 632(%rsi), %ymm6 vpslld $16, %ymm2, %ymm1 vpblendw $-86, %ymm1, %ymm9, %ymm10 vpsrld $16, %ymm9, %ymm1 vpblendw $-86, %ymm2, %ymm1, %ymm8 vpslld $16, %ymm3, %ymm1 vpblendw $-86, %ymm1, %ymm4, %ymm1 vpsrld $16, %ymm4, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm12 vpslld $16, %ymm7, %ymm2 vpblendw $-86, %ymm2, %ymm13, %ymm4 vpsrld $16, %ymm13, %ymm2 vpblendw $-86, %ymm7, %ymm2, %ymm7 vpslld $16, %ymm11, %ymm2 vpblendw $-86, %ymm2, %ymm14, %ymm2 vpsrld $16, %ymm14, %ymm3 vpblendw $-86, %ymm11, %ymm3, %ymm13 vpmullw %ymm4, %ymm5, %ymm3 vpmulhw %ymm4, %ymm6, %ymm11 vpmullw %ymm7, %ymm5, %ymm4 vpmulhw %ymm7, %ymm6, %ymm9 vpmullw %ymm2, %ymm5, %ymm7 vpmulhw %ymm2, %ymm6, %ymm2 vpmullw %ymm13, %ymm5, %ymm14 vpmulhw %ymm13, %ymm6, %ymm13 vpmulhw %ymm0, %ymm3, %ymm3 vpmulhw %ymm0, %ymm4, %ymm4 vpmulhw %ymm0, %ymm7, %ymm5 vpmulhw %ymm0, %ymm14, %ymm6 vpsubw %ymm9, %ymm8, %ymm7 vpaddw %ymm8, %ymm9, %ymm8 vpsubw %ymm11, %ymm10, %ymm9 vpaddw %ymm10, %ymm11, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm2, %ymm1, %ymm13 vpaddw %ymm1, %ymm2, %ymm1 vpaddw %ymm9, %ymm3, %ymm2 vpsubw %ymm3, %ymm10, %ymm3 vpaddw %ymm7, %ymm4, %ymm7 vpsubw %ymm4, %ymm8, %ymm4 vpaddw %ymm13, %ymm5, %ymm8 vpsubw %ymm5, %ymm1, %ymm1 vpaddw %ymm11, %ymm6, %ymm5 vpsubw %ymm6, %ymm12, %ymm10 vmovdqu 664(%rsi), %ymm9 vmovdqu 696(%rsi), %ymm13 vmovdqu 728(%rsi), %ymm11 vmovdqu 760(%rsi), %ymm6 vpmullw %ymm1, %ymm9, %ymm14 vpmulhw %ymm1, %ymm13, %ymm12 vpmullw %ymm10, %ymm9, %ymm9 vpmulhw %ymm10, %ymm13, %ymm13 vpmullw %ymm8, %ymm11, %ymm10 vpmulhw %ymm8, %ymm6, %ymm1 vpmullw %ymm5, %ymm11, %ymm11 vpmulhw %ymm5, %ymm6, %ymm5 vpmulhw %ymm0, %ymm14, %ymm6 vpmulhw %ymm0, %ymm9, %ymm8 vpmulhw %ymm0, %ymm10, %ymm9 vpmulhw %ymm0, %ymm11, %ymm10 vpsubw %ymm13, %ymm4, %ymm11 vpaddw %ymm4, %ymm13, %ymm4 vpsubw %ymm12, %ymm3, %ymm13 vpaddw %ymm3, %ymm12, %ymm3 vpsubw %ymm5, %ymm7, %ymm12 vpaddw %ymm7, %ymm5, %ymm5 vpsubw %ymm1, %ymm2, %ymm7 vpaddw %ymm2, %ymm1, %ymm1 vpaddw %ymm13, %ymm6, %ymm2 vpsubw %ymm6, %ymm3, %ymm3 vpaddw %ymm11, %ymm8, %ymm6 vpsubw %ymm8, %ymm4, %ymm4 vpaddw %ymm7, %ymm9, %ymm7 vpsubw %ymm9, %ymm1, %ymm8 vpaddw %ymm12, %ymm10, %ymm1 vpsubw %ymm10, %ymm5, %ymm5 vmovdqu glob_data + 384(%rip), %ymm9 vpmulhw %ymm9, %ymm3, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm3, %ymm3 vpmulhw %ymm9, %ymm4, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm4, %ymm4 vpmulhw %ymm9, %ymm8, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm8, %ymm8 vpmulhw %ymm9, %ymm5, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm5, %ymm5 vpmulhw %ymm9, %ymm2, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm2, %ymm2 vpmulhw %ymm9, %ymm6, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm6, %ymm6 vpmulhw %ymm9, %ymm7, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm7, %ymm7 vpmulhw %ymm9, %ymm1, %ymm9 vpsraw $10, %ymm9, %ymm9 vpmullw %ymm0, %ymm9, %ymm0 vpsubw %ymm0, %ymm1, %ymm0 vmovdqu %ymm3, 256(%rcx) vmovdqu %ymm4, 288(%rcx) vmovdqu %ymm2, 320(%rcx) vmovdqu %ymm6, 352(%rcx) vmovdqu %ymm8, 384(%rcx) vmovdqu %ymm5, 416(%rcx) vmovdqu %ymm7, 448(%rcx) vmovdqu %ymm0, 480(%rcx) jmp *%rdi L_poly_invntt$1: leaq glob_data + 480(%rip), %rsi vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu (%rsi), %ymm12 vmovdqu 64(%rsi), %ymm1 vmovdqu 32(%rsi), %ymm2 vmovdqu 96(%rsi), %ymm5 vmovdqu (%rcx), %ymm3 vmovdqu 32(%rcx), %ymm4 vmovdqu 64(%rcx), %ymm15 vmovdqu 96(%rcx), %ymm11 vmovdqu 128(%rcx), %ymm7 vmovdqu 160(%rcx), %ymm8 vmovdqu 192(%rcx), %ymm13 vmovdqu 224(%rcx), %ymm14 vpsubw %ymm15, %ymm3, %ymm6 vpsubw %ymm11, %ymm4, %ymm9 vpsubw %ymm13, %ymm7, %ymm10 vpaddw %ymm3, %ymm15, %ymm3 vpaddw %ymm4, %ymm11, %ymm4 vpmullw %ymm6, %ymm12, %ymm11 vpaddw %ymm7, %ymm13, %ymm7 vpmullw %ymm9, %ymm12, %ymm12 vpsubw %ymm14, %ymm8, %ymm13 vpaddw %ymm8, %ymm14, %ymm8 vpmullw %ymm10, %ymm1, %ymm14 vpmullw %ymm13, %ymm1, %ymm1 vpmulhw %ymm6, %ymm2, %ymm6 vpmulhw %ymm9, %ymm2, %ymm2 vpmulhw %ymm10, %ymm5, %ymm9 vpmulhw %ymm13, %ymm5, %ymm5 vpmulhw %ymm11, %ymm0, %ymm10 vpmulhw %ymm12, %ymm0, %ymm11 vpmulhw %ymm14, %ymm0, %ymm12 vpmulhw %ymm1, %ymm0, %ymm1 vpsubw %ymm10, %ymm6, %ymm6 vpsubw %ymm11, %ymm2, %ymm11 vpsubw %ymm12, %ymm9, %ymm9 vpsubw %ymm1, %ymm5, %ymm13 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu 128(%rsi), %ymm2 vmovdqu 160(%rsi), %ymm5 vpmulhw %ymm1, %ymm3, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm3, %ymm10 vpmulhw %ymm1, %ymm4, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm12 vpmulhw %ymm1, %ymm7, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm7, %ymm7 vpmulhw %ymm1, %ymm8, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm8, %ymm8 vpsubw %ymm7, %ymm10, %ymm15 vpsubw %ymm8, %ymm12, %ymm3 vpsubw %ymm9, %ymm6, %ymm4 vpaddw %ymm10, %ymm7, %ymm7 vpaddw %ymm12, %ymm8, %ymm8 vpmullw %ymm15, %ymm2, %ymm10 vpaddw %ymm6, %ymm9, %ymm9 vpmullw %ymm3, %ymm2, %ymm6 vpsubw %ymm13, %ymm11, %ymm12 vpaddw %ymm11, %ymm13, %ymm11 vpmullw %ymm4, %ymm2, %ymm13 vpmullw %ymm12, %ymm2, %ymm14 vpmulhw %ymm15, %ymm5, %ymm2 vpmulhw %ymm3, %ymm5, %ymm3 vpmulhw %ymm4, %ymm5, %ymm4 vpmulhw %ymm12, %ymm5, %ymm5 vpmulhw %ymm10, %ymm0, %ymm10 vpmulhw %ymm6, %ymm0, %ymm12 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm14, %ymm0, %ymm6 vpsubw %ymm10, %ymm2, %ymm2 vpsubw %ymm12, %ymm3, %ymm3 vpsubw %ymm13, %ymm4, %ymm4 vpsubw %ymm6, %ymm5, %ymm5 vpslld $16, %ymm8, %ymm6 vpblendw $-86, %ymm6, %ymm7, %ymm6 vpsrld $16, %ymm7, %ymm7 vpblendw $-86, %ymm8, %ymm7, %ymm7 vpslld $16, %ymm11, %ymm8 vpblendw $-86, %ymm8, %ymm9, %ymm10 vpsrld $16, %ymm9, %ymm8 vpblendw $-86, %ymm11, %ymm8, %ymm11 vpslld $16, %ymm3, %ymm8 vpblendw $-86, %ymm8, %ymm2, %ymm8 vpsrld $16, %ymm2, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm9 vpslld $16, %ymm5, %ymm2 vpblendw $-86, %ymm2, %ymm4, %ymm12 vpsrld $16, %ymm4, %ymm2 vpblendw $-86, %ymm5, %ymm2, %ymm13 vmovdqu 192(%rsi), %ymm2 vmovdqu 224(%rsi), %ymm5 vpsubw %ymm7, %ymm6, %ymm15 vpsubw %ymm11, %ymm10, %ymm3 vpsubw %ymm9, %ymm8, %ymm4 vpaddw %ymm6, %ymm7, %ymm6 vpaddw %ymm10, %ymm11, %ymm7 vpmullw %ymm15, %ymm2, %ymm10 vpaddw %ymm8, %ymm9, %ymm8 vpmullw %ymm3, %ymm2, %ymm9 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpmullw %ymm4, %ymm2, %ymm13 vpmullw %ymm11, %ymm2, %ymm14 vpmulhw %ymm15, %ymm5, %ymm2 vpmulhw %ymm3, %ymm5, %ymm3 vpmulhw %ymm4, %ymm5, %ymm4 vpmulhw %ymm11, %ymm5, %ymm5 vpmulhw %ymm10, %ymm0, %ymm10 vpmulhw %ymm9, %ymm0, %ymm11 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm14, %ymm0, %ymm9 vpsubw %ymm10, %ymm2, %ymm2 vpsubw %ymm11, %ymm3, %ymm3 vpsubw %ymm13, %ymm4, %ymm4 vpsubw %ymm9, %ymm5, %ymm5 vpmulhw %ymm1, %ymm6, %ymm9 vpsraw $10, %ymm9, %ymm9 vpmullw %ymm0, %ymm9, %ymm9 vpsubw %ymm9, %ymm6, %ymm6 vmovsldup %ymm7, %ymm9 vpblendd $-86, %ymm9, %ymm6, %ymm9 vpsrlq $32, %ymm6, %ymm6 vpblendd $-86, %ymm7, %ymm6, %ymm10 vmovsldup %ymm12, %ymm6 vpblendd $-86, %ymm6, %ymm8, %ymm11 vpsrlq $32, %ymm8, %ymm6 vpblendd $-86, %ymm12, %ymm6, %ymm14 vmovsldup %ymm3, %ymm6 vpblendd $-86, %ymm6, %ymm2, %ymm12 vpsrlq $32, %ymm2, %ymm2 vpblendd $-86, %ymm3, %ymm2, %ymm13 vmovsldup %ymm5, %ymm2 vpblendd $-86, %ymm2, %ymm4, %ymm2 vpsrlq $32, %ymm4, %ymm3 vpblendd $-86, %ymm5, %ymm3, %ymm3 vmovdqu 256(%rsi), %ymm4 vmovdqu 288(%rsi), %ymm5 vpsubw %ymm10, %ymm9, %ymm6 vpsubw %ymm14, %ymm11, %ymm7 vpsubw %ymm13, %ymm12, %ymm8 vpaddw %ymm9, %ymm10, %ymm9 vpaddw %ymm11, %ymm14, %ymm10 vpmullw %ymm6, %ymm4, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpmullw %ymm7, %ymm4, %ymm13 vpsubw %ymm3, %ymm2, %ymm14 vpaddw %ymm2, %ymm3, %ymm2 vpmullw %ymm8, %ymm4, %ymm3 vpmullw %ymm14, %ymm4, %ymm4 vpmulhw %ymm6, %ymm5, %ymm6 vpmulhw %ymm7, %ymm5, %ymm7 vpmulhw %ymm8, %ymm5, %ymm8 vpmulhw %ymm14, %ymm5, %ymm5 vpmulhw %ymm11, %ymm0, %ymm11 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm3, %ymm0, %ymm3 vpmulhw %ymm4, %ymm0, %ymm4 vpsubw %ymm11, %ymm6, %ymm6 vpsubw %ymm13, %ymm7, %ymm7 vpsubw %ymm3, %ymm8, %ymm3 vpsubw %ymm4, %ymm5, %ymm4 vpmulhw %ymm1, %ymm9, %ymm5 vpsraw $10, %ymm5, %ymm5 vpmullw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm9, %ymm8 vpunpcklqdq %ymm10, %ymm8, %ymm5 vpunpckhqdq %ymm10, %ymm8, %ymm8 vpunpcklqdq %ymm2, %ymm12, %ymm9 vpunpckhqdq %ymm2, %ymm12, %ymm2 vpunpcklqdq %ymm7, %ymm6, %ymm10 vpunpckhqdq %ymm7, %ymm6, %ymm6 vpunpcklqdq %ymm4, %ymm3, %ymm7 vpunpckhqdq %ymm4, %ymm3, %ymm3 vmovdqu 320(%rsi), %ymm4 vmovdqu 352(%rsi), %ymm11 vpsubw %ymm8, %ymm5, %ymm12 vpsubw %ymm2, %ymm9, %ymm13 vpsubw %ymm6, %ymm10, %ymm14 vpaddw %ymm5, %ymm8, %ymm5 vpaddw %ymm9, %ymm2, %ymm2 vpmullw %ymm12, %ymm4, %ymm8 vpaddw %ymm10, %ymm6, %ymm6 vpmullw %ymm13, %ymm4, %ymm9 vpsubw %ymm3, %ymm7, %ymm10 vpaddw %ymm7, %ymm3, %ymm3 vpmullw %ymm14, %ymm4, %ymm7 vpmullw %ymm10, %ymm4, %ymm4 vpmulhw %ymm12, %ymm11, %ymm12 vpmulhw %ymm13, %ymm11, %ymm13 vpmulhw %ymm14, %ymm11, %ymm14 vpmulhw %ymm10, %ymm11, %ymm10 vpmulhw %ymm8, %ymm0, %ymm8 vpmulhw %ymm9, %ymm0, %ymm9 vpmulhw %ymm7, %ymm0, %ymm7 vpmulhw %ymm4, %ymm0, %ymm4 vpsubw %ymm8, %ymm12, %ymm8 vpsubw %ymm9, %ymm13, %ymm9 vpsubw %ymm7, %ymm14, %ymm7 vpsubw %ymm4, %ymm10, %ymm4 vpmulhw %ymm1, %ymm5, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm5, %ymm10 vperm2i128 $32, %ymm2, %ymm10, %ymm5 vperm2i128 $49, %ymm2, %ymm10, %ymm2 vperm2i128 $32, %ymm3, %ymm6, %ymm10 vperm2i128 $49, %ymm3, %ymm6, %ymm3 vperm2i128 $32, %ymm9, %ymm8, %ymm6 vperm2i128 $49, %ymm9, %ymm8, %ymm8 vperm2i128 $32, %ymm4, %ymm7, %ymm9 vperm2i128 $49, %ymm4, %ymm7, %ymm4 vpbroadcastd 384(%rsi), %ymm7 vpbroadcastd 388(%rsi), %ymm11 vpsubw %ymm2, %ymm5, %ymm12 vpsubw %ymm3, %ymm10, %ymm13 vpsubw %ymm8, %ymm6, %ymm14 vpaddw %ymm5, %ymm2, %ymm2 vpaddw %ymm10, %ymm3, %ymm3 vpmullw %ymm12, %ymm7, %ymm5 vpaddw %ymm6, %ymm8, %ymm6 vpmullw %ymm13, %ymm7, %ymm8 vpsubw %ymm4, %ymm9, %ymm10 vpaddw %ymm9, %ymm4, %ymm4 vpmullw %ymm14, %ymm7, %ymm9 vpmullw %ymm10, %ymm7, %ymm7 vpmulhw %ymm12, %ymm11, %ymm12 vpmulhw %ymm13, %ymm11, %ymm13 vpmulhw %ymm14, %ymm11, %ymm14 vpmulhw %ymm10, %ymm11, %ymm10 vpmulhw %ymm5, %ymm0, %ymm5 vpmulhw %ymm8, %ymm0, %ymm8 vpmulhw %ymm9, %ymm0, %ymm9 vpmulhw %ymm7, %ymm0, %ymm7 vpsubw %ymm5, %ymm12, %ymm5 vpsubw %ymm8, %ymm13, %ymm8 vpsubw %ymm9, %ymm14, %ymm9 vpsubw %ymm7, %ymm10, %ymm7 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm1 vpsubw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, (%rcx) vmovdqu %ymm3, 32(%rcx) vmovdqu %ymm6, 64(%rcx) vmovdqu %ymm4, 96(%rcx) vmovdqu %ymm5, 128(%rcx) vmovdqu %ymm8, 160(%rcx) vmovdqu %ymm9, 192(%rcx) vmovdqu %ymm7, 224(%rcx) vmovdqu 392(%rsi), %ymm12 vmovdqu 456(%rsi), %ymm1 vmovdqu 424(%rsi), %ymm2 vmovdqu 488(%rsi), %ymm5 vmovdqu 256(%rcx), %ymm3 vmovdqu 288(%rcx), %ymm4 vmovdqu 320(%rcx), %ymm15 vmovdqu 352(%rcx), %ymm11 vmovdqu 384(%rcx), %ymm7 vmovdqu 416(%rcx), %ymm8 vmovdqu 448(%rcx), %ymm13 vmovdqu 480(%rcx), %ymm14 vpsubw %ymm15, %ymm3, %ymm6 vpsubw %ymm11, %ymm4, %ymm9 vpsubw %ymm13, %ymm7, %ymm10 vpaddw %ymm3, %ymm15, %ymm3 vpaddw %ymm4, %ymm11, %ymm4 vpmullw %ymm6, %ymm12, %ymm11 vpaddw %ymm7, %ymm13, %ymm7 vpmullw %ymm9, %ymm12, %ymm12 vpsubw %ymm14, %ymm8, %ymm13 vpaddw %ymm8, %ymm14, %ymm8 vpmullw %ymm10, %ymm1, %ymm14 vpmullw %ymm13, %ymm1, %ymm1 vpmulhw %ymm6, %ymm2, %ymm6 vpmulhw %ymm9, %ymm2, %ymm2 vpmulhw %ymm10, %ymm5, %ymm9 vpmulhw %ymm13, %ymm5, %ymm5 vpmulhw %ymm11, %ymm0, %ymm10 vpmulhw %ymm12, %ymm0, %ymm11 vpmulhw %ymm14, %ymm0, %ymm12 vpmulhw %ymm1, %ymm0, %ymm1 vpsubw %ymm10, %ymm6, %ymm6 vpsubw %ymm11, %ymm2, %ymm11 vpsubw %ymm12, %ymm9, %ymm9 vpsubw %ymm1, %ymm5, %ymm13 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu 520(%rsi), %ymm2 vmovdqu 552(%rsi), %ymm5 vpmulhw %ymm1, %ymm3, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm3, %ymm10 vpmulhw %ymm1, %ymm4, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm12 vpmulhw %ymm1, %ymm7, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm7, %ymm7 vpmulhw %ymm1, %ymm8, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm8, %ymm8 vpsubw %ymm7, %ymm10, %ymm15 vpsubw %ymm8, %ymm12, %ymm3 vpsubw %ymm9, %ymm6, %ymm4 vpaddw %ymm10, %ymm7, %ymm7 vpaddw %ymm12, %ymm8, %ymm8 vpmullw %ymm15, %ymm2, %ymm10 vpaddw %ymm6, %ymm9, %ymm9 vpmullw %ymm3, %ymm2, %ymm6 vpsubw %ymm13, %ymm11, %ymm12 vpaddw %ymm11, %ymm13, %ymm11 vpmullw %ymm4, %ymm2, %ymm13 vpmullw %ymm12, %ymm2, %ymm14 vpmulhw %ymm15, %ymm5, %ymm2 vpmulhw %ymm3, %ymm5, %ymm3 vpmulhw %ymm4, %ymm5, %ymm4 vpmulhw %ymm12, %ymm5, %ymm5 vpmulhw %ymm10, %ymm0, %ymm10 vpmulhw %ymm6, %ymm0, %ymm12 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm14, %ymm0, %ymm6 vpsubw %ymm10, %ymm2, %ymm2 vpsubw %ymm12, %ymm3, %ymm3 vpsubw %ymm13, %ymm4, %ymm4 vpsubw %ymm6, %ymm5, %ymm5 vpslld $16, %ymm8, %ymm6 vpblendw $-86, %ymm6, %ymm7, %ymm6 vpsrld $16, %ymm7, %ymm7 vpblendw $-86, %ymm8, %ymm7, %ymm7 vpslld $16, %ymm11, %ymm8 vpblendw $-86, %ymm8, %ymm9, %ymm10 vpsrld $16, %ymm9, %ymm8 vpblendw $-86, %ymm11, %ymm8, %ymm11 vpslld $16, %ymm3, %ymm8 vpblendw $-86, %ymm8, %ymm2, %ymm8 vpsrld $16, %ymm2, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm9 vpslld $16, %ymm5, %ymm2 vpblendw $-86, %ymm2, %ymm4, %ymm12 vpsrld $16, %ymm4, %ymm2 vpblendw $-86, %ymm5, %ymm2, %ymm13 vmovdqu 584(%rsi), %ymm2 vmovdqu 616(%rsi), %ymm5 vpsubw %ymm7, %ymm6, %ymm15 vpsubw %ymm11, %ymm10, %ymm3 vpsubw %ymm9, %ymm8, %ymm4 vpaddw %ymm6, %ymm7, %ymm6 vpaddw %ymm10, %ymm11, %ymm7 vpmullw %ymm15, %ymm2, %ymm10 vpaddw %ymm8, %ymm9, %ymm8 vpmullw %ymm3, %ymm2, %ymm9 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpmullw %ymm4, %ymm2, %ymm13 vpmullw %ymm11, %ymm2, %ymm14 vpmulhw %ymm15, %ymm5, %ymm2 vpmulhw %ymm3, %ymm5, %ymm3 vpmulhw %ymm4, %ymm5, %ymm4 vpmulhw %ymm11, %ymm5, %ymm5 vpmulhw %ymm10, %ymm0, %ymm10 vpmulhw %ymm9, %ymm0, %ymm11 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm14, %ymm0, %ymm9 vpsubw %ymm10, %ymm2, %ymm2 vpsubw %ymm11, %ymm3, %ymm3 vpsubw %ymm13, %ymm4, %ymm4 vpsubw %ymm9, %ymm5, %ymm5 vpmulhw %ymm1, %ymm6, %ymm9 vpsraw $10, %ymm9, %ymm9 vpmullw %ymm0, %ymm9, %ymm9 vpsubw %ymm9, %ymm6, %ymm6 vmovsldup %ymm7, %ymm9 vpblendd $-86, %ymm9, %ymm6, %ymm9 vpsrlq $32, %ymm6, %ymm6 vpblendd $-86, %ymm7, %ymm6, %ymm10 vmovsldup %ymm12, %ymm6 vpblendd $-86, %ymm6, %ymm8, %ymm11 vpsrlq $32, %ymm8, %ymm6 vpblendd $-86, %ymm12, %ymm6, %ymm14 vmovsldup %ymm3, %ymm6 vpblendd $-86, %ymm6, %ymm2, %ymm12 vpsrlq $32, %ymm2, %ymm2 vpblendd $-86, %ymm3, %ymm2, %ymm13 vmovsldup %ymm5, %ymm2 vpblendd $-86, %ymm2, %ymm4, %ymm2 vpsrlq $32, %ymm4, %ymm3 vpblendd $-86, %ymm5, %ymm3, %ymm3 vmovdqu 648(%rsi), %ymm4 vmovdqu 680(%rsi), %ymm5 vpsubw %ymm10, %ymm9, %ymm6 vpsubw %ymm14, %ymm11, %ymm7 vpsubw %ymm13, %ymm12, %ymm8 vpaddw %ymm9, %ymm10, %ymm9 vpaddw %ymm11, %ymm14, %ymm10 vpmullw %ymm6, %ymm4, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpmullw %ymm7, %ymm4, %ymm13 vpsubw %ymm3, %ymm2, %ymm14 vpaddw %ymm2, %ymm3, %ymm2 vpmullw %ymm8, %ymm4, %ymm3 vpmullw %ymm14, %ymm4, %ymm4 vpmulhw %ymm6, %ymm5, %ymm6 vpmulhw %ymm7, %ymm5, %ymm7 vpmulhw %ymm8, %ymm5, %ymm8 vpmulhw %ymm14, %ymm5, %ymm5 vpmulhw %ymm11, %ymm0, %ymm11 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm3, %ymm0, %ymm3 vpmulhw %ymm4, %ymm0, %ymm4 vpsubw %ymm11, %ymm6, %ymm6 vpsubw %ymm13, %ymm7, %ymm7 vpsubw %ymm3, %ymm8, %ymm3 vpsubw %ymm4, %ymm5, %ymm4 vpmulhw %ymm1, %ymm9, %ymm5 vpsraw $10, %ymm5, %ymm5 vpmullw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm9, %ymm8 vpunpcklqdq %ymm10, %ymm8, %ymm5 vpunpckhqdq %ymm10, %ymm8, %ymm8 vpunpcklqdq %ymm2, %ymm12, %ymm9 vpunpckhqdq %ymm2, %ymm12, %ymm2 vpunpcklqdq %ymm7, %ymm6, %ymm10 vpunpckhqdq %ymm7, %ymm6, %ymm6 vpunpcklqdq %ymm4, %ymm3, %ymm7 vpunpckhqdq %ymm4, %ymm3, %ymm3 vmovdqu 712(%rsi), %ymm4 vmovdqu 744(%rsi), %ymm11 vpsubw %ymm8, %ymm5, %ymm12 vpsubw %ymm2, %ymm9, %ymm13 vpsubw %ymm6, %ymm10, %ymm14 vpaddw %ymm5, %ymm8, %ymm5 vpaddw %ymm9, %ymm2, %ymm2 vpmullw %ymm12, %ymm4, %ymm8 vpaddw %ymm10, %ymm6, %ymm6 vpmullw %ymm13, %ymm4, %ymm9 vpsubw %ymm3, %ymm7, %ymm10 vpaddw %ymm7, %ymm3, %ymm3 vpmullw %ymm14, %ymm4, %ymm7 vpmullw %ymm10, %ymm4, %ymm4 vpmulhw %ymm12, %ymm11, %ymm12 vpmulhw %ymm13, %ymm11, %ymm13 vpmulhw %ymm14, %ymm11, %ymm14 vpmulhw %ymm10, %ymm11, %ymm10 vpmulhw %ymm8, %ymm0, %ymm8 vpmulhw %ymm9, %ymm0, %ymm9 vpmulhw %ymm7, %ymm0, %ymm7 vpmulhw %ymm4, %ymm0, %ymm4 vpsubw %ymm8, %ymm12, %ymm8 vpsubw %ymm9, %ymm13, %ymm9 vpsubw %ymm7, %ymm14, %ymm7 vpsubw %ymm4, %ymm10, %ymm4 vpmulhw %ymm1, %ymm5, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm5, %ymm10 vperm2i128 $32, %ymm2, %ymm10, %ymm5 vperm2i128 $49, %ymm2, %ymm10, %ymm2 vperm2i128 $32, %ymm3, %ymm6, %ymm10 vperm2i128 $49, %ymm3, %ymm6, %ymm3 vperm2i128 $32, %ymm9, %ymm8, %ymm6 vperm2i128 $49, %ymm9, %ymm8, %ymm8 vperm2i128 $32, %ymm4, %ymm7, %ymm9 vperm2i128 $49, %ymm4, %ymm7, %ymm4 vpbroadcastd 776(%rsi), %ymm7 vpbroadcastd 780(%rsi), %ymm11 vpsubw %ymm2, %ymm5, %ymm12 vpsubw %ymm3, %ymm10, %ymm13 vpsubw %ymm8, %ymm6, %ymm14 vpaddw %ymm5, %ymm2, %ymm2 vpaddw %ymm10, %ymm3, %ymm3 vpmullw %ymm12, %ymm7, %ymm5 vpaddw %ymm6, %ymm8, %ymm6 vpmullw %ymm13, %ymm7, %ymm8 vpsubw %ymm4, %ymm9, %ymm10 vpaddw %ymm9, %ymm4, %ymm4 vpmullw %ymm14, %ymm7, %ymm9 vpmullw %ymm10, %ymm7, %ymm7 vpmulhw %ymm12, %ymm11, %ymm12 vpmulhw %ymm13, %ymm11, %ymm13 vpmulhw %ymm14, %ymm11, %ymm14 vpmulhw %ymm10, %ymm11, %ymm10 vpmulhw %ymm5, %ymm0, %ymm5 vpmulhw %ymm8, %ymm0, %ymm8 vpmulhw %ymm9, %ymm0, %ymm9 vpmulhw %ymm7, %ymm0, %ymm7 vpsubw %ymm5, %ymm12, %ymm5 vpsubw %ymm8, %ymm13, %ymm8 vpsubw %ymm9, %ymm14, %ymm9 vpsubw %ymm7, %ymm10, %ymm7 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm1 vpsubw %ymm1, %ymm2, %ymm10 vmovdqu %ymm5, 384(%rcx) vmovdqu %ymm8, 416(%rcx) vmovdqu %ymm9, 448(%rcx) vmovdqu %ymm7, 480(%rcx) vpbroadcastd 784(%rsi), %ymm1 vpbroadcastd 788(%rsi), %ymm2 vmovdqu %ymm4, %ymm7 vmovdqu %ymm3, %ymm4 vmovdqu %ymm10, %ymm3 vmovdqu (%rcx), %ymm9 vmovdqu 32(%rcx), %ymm13 vmovdqu 64(%rcx), %ymm5 vmovdqu 96(%rcx), %ymm8 vpsubw %ymm3, %ymm9, %ymm10 vpsubw %ymm4, %ymm13, %ymm11 vpsubw %ymm6, %ymm5, %ymm12 vpaddw %ymm9, %ymm3, %ymm3 vpaddw %ymm13, %ymm4, %ymm4 vpmullw %ymm10, %ymm1, %ymm13 vpaddw %ymm5, %ymm6, %ymm5 vpmullw %ymm11, %ymm1, %ymm6 vpsubw %ymm7, %ymm8, %ymm14 vpaddw %ymm8, %ymm7, %ymm7 vpmullw %ymm12, %ymm1, %ymm8 vpmullw %ymm14, %ymm1, %ymm9 vpmulhw %ymm10, %ymm2, %ymm10 vpmulhw %ymm11, %ymm2, %ymm11 vpmulhw %ymm12, %ymm2, %ymm12 vpmulhw %ymm14, %ymm2, %ymm14 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm6, %ymm0, %ymm6 vpmulhw %ymm8, %ymm0, %ymm8 vpmulhw %ymm9, %ymm0, %ymm9 vpsubw %ymm13, %ymm10, %ymm10 vpsubw %ymm6, %ymm11, %ymm6 vpsubw %ymm8, %ymm12, %ymm11 vpsubw %ymm9, %ymm14, %ymm12 vmovdqu glob_data + 320(%rip), %ymm8 vmovdqu glob_data + 352(%rip), %ymm9 vmovdqu %ymm10, 256(%rcx) vmovdqu %ymm6, 288(%rcx) vmovdqu %ymm11, 320(%rcx) vmovdqu %ymm12, 352(%rcx) vpmullw %ymm3, %ymm8, %ymm6 vpmulhw %ymm3, %ymm9, %ymm3 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm3, %ymm3 vpmullw %ymm4, %ymm8, %ymm6 vpmulhw %ymm4, %ymm9, %ymm4 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm4, %ymm4 vpmullw %ymm5, %ymm8, %ymm6 vpmulhw %ymm5, %ymm9, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm5, %ymm5 vpmullw %ymm7, %ymm8, %ymm6 vpmulhw %ymm7, %ymm9, %ymm7 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm7, %ymm6 vmovdqu %ymm3, (%rcx) vmovdqu %ymm4, 32(%rcx) vmovdqu %ymm5, 64(%rcx) vmovdqu %ymm6, 96(%rcx) vmovdqu 384(%rcx), %ymm4 vmovdqu 416(%rcx), %ymm5 vmovdqu 448(%rcx), %ymm7 vmovdqu 480(%rcx), %ymm10 vmovdqu 128(%rcx), %ymm6 vmovdqu 160(%rcx), %ymm9 vmovdqu 192(%rcx), %ymm8 vmovdqu 224(%rcx), %ymm11 vpsubw %ymm4, %ymm6, %ymm12 vpsubw %ymm5, %ymm9, %ymm13 vpsubw %ymm7, %ymm8, %ymm3 vpaddw %ymm6, %ymm4, %ymm4 vpaddw %ymm9, %ymm5, %ymm5 vpmullw %ymm12, %ymm1, %ymm6 vpaddw %ymm8, %ymm7, %ymm7 vpmullw %ymm13, %ymm1, %ymm8 vpsubw %ymm10, %ymm11, %ymm9 vpaddw %ymm11, %ymm10, %ymm10 vpmullw %ymm3, %ymm1, %ymm11 vpmullw %ymm9, %ymm1, %ymm1 vpmulhw %ymm12, %ymm2, %ymm12 vpmulhw %ymm13, %ymm2, %ymm13 vpmulhw %ymm3, %ymm2, %ymm3 vpmulhw %ymm9, %ymm2, %ymm2 vpmulhw %ymm6, %ymm0, %ymm6 vpmulhw %ymm8, %ymm0, %ymm8 vpmulhw %ymm11, %ymm0, %ymm9 vpmulhw %ymm1, %ymm0, %ymm11 vpsubw %ymm6, %ymm12, %ymm1 vpsubw %ymm8, %ymm13, %ymm6 vpsubw %ymm9, %ymm3, %ymm8 vpsubw %ymm11, %ymm2, %ymm9 vmovdqu glob_data + 320(%rip), %ymm2 vmovdqu glob_data + 352(%rip), %ymm3 vmovdqu %ymm1, 384(%rcx) vmovdqu %ymm6, 416(%rcx) vmovdqu %ymm8, 448(%rcx) vmovdqu %ymm9, 480(%rcx) vpmullw %ymm4, %ymm2, %ymm1 vpmulhw %ymm4, %ymm3, %ymm4 vpmulhw %ymm0, %ymm1, %ymm1 vpsubw %ymm1, %ymm4, %ymm1 vpmullw %ymm5, %ymm2, %ymm4 vpmulhw %ymm5, %ymm3, %ymm5 vpmulhw %ymm0, %ymm4, %ymm4 vpsubw %ymm4, %ymm5, %ymm4 vpmullw %ymm7, %ymm2, %ymm5 vpmulhw %ymm7, %ymm3, %ymm6 vpmulhw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm6, %ymm5 vpmullw %ymm10, %ymm2, %ymm2 vpmulhw %ymm10, %ymm3, %ymm3 vpmulhw %ymm0, %ymm2, %ymm0 vpsubw %ymm0, %ymm3, %ymm0 vmovdqu %ymm1, 128(%rcx) vmovdqu %ymm4, 160(%rcx) vmovdqu %ymm5, 192(%rcx) vmovdqu %ymm0, 224(%rcx) jmp *%rdi L_poly_getnoise_eta1122_4x$1: movq %rax, 1440(%rsp) vmovdqu (%rcx), %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 320(%rsp) vmovdqu %ymm0, 480(%rsp) movb %dl, 32(%rsp) incb %dl movb %dl, 192(%rsp) incb %dl movb %dl, 352(%rsp) incb %dl movb %dl, 512(%rsp) leaq 640(%rsp), %rax movq %rsp, %rcx leaq 160(%rsp), %rdx leaq 320(%rsp), %rsi leaq 480(%rsp), %r11 leaq -8(%rsp), %rsp leaq L_poly_getnoise_eta1122_4x$3(%rip), %r10 movq %r10, (%rsp) jmp L_shake256_absorb4x_33$1 L_poly_getnoise_eta1122_4x$3: leaq 8(%rsp), %rsp leaq 640(%rsp), %rax movq %rsp, %rcx leaq 160(%rsp), %rdx leaq 320(%rsp), %rsi leaq 480(%rsp), %r10 movq %rcx, %r11 movq %rdx, %rbx movq %rsi, %rbp leaq -832(%rsp), %rsp leaq L_poly_getnoise_eta1122_4x$2(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L_poly_getnoise_eta1122_4x$2: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r10) movq 1440(%rsp), %rax movq %rsp, %rcx movl $1431655765, 1448(%rsp) movl $858993459, 1452(%rsp) movl $50529027, 1456(%rsp) movl $252645135, 1460(%rsp) vpbroadcastd 1448(%rsp), %ymm0 vpbroadcastd 1452(%rsp), %ymm1 vpbroadcastd 1456(%rsp), %ymm2 vpbroadcastd 1460(%rsp), %ymm3 vmovdqu (%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%rax) vmovdqu %ymm7, 32(%rax) vmovdqu %ymm6, 64(%rax) vmovdqu %ymm4, 96(%rax) vmovdqu 32(%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%rax) vmovdqu %ymm7, 160(%rax) vmovdqu %ymm6, 192(%rax) vmovdqu %ymm4, 224(%rax) vmovdqu 64(%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%rax) vmovdqu %ymm7, 288(%rax) vmovdqu %ymm6, 320(%rax) vmovdqu %ymm4, 352(%rax) vmovdqu 96(%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%rax) vmovdqu %ymm3, 416(%rax) vmovdqu %ymm2, 448(%rax) vmovdqu %ymm0, 480(%rax) leaq 160(%rsp), %rax movl $1431655765, 1460(%rsp) movl $858993459, 1456(%rsp) movl $50529027, 1452(%rsp) movl $252645135, 1448(%rsp) vpbroadcastd 1460(%rsp), %ymm0 vpbroadcastd 1456(%rsp), %ymm1 vpbroadcastd 1452(%rsp), %ymm2 vpbroadcastd 1448(%rsp), %ymm3 vmovdqu (%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%rdi) vmovdqu %ymm7, 32(%rdi) vmovdqu %ymm6, 64(%rdi) vmovdqu %ymm4, 96(%rdi) vmovdqu 32(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%rdi) vmovdqu %ymm7, 160(%rdi) vmovdqu %ymm6, 192(%rdi) vmovdqu %ymm4, 224(%rdi) vmovdqu 64(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%rdi) vmovdqu %ymm7, 288(%rdi) vmovdqu %ymm6, 320(%rdi) vmovdqu %ymm4, 352(%rdi) vmovdqu 96(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%rdi) vmovdqu %ymm3, 416(%rdi) vmovdqu %ymm2, 448(%rdi) vmovdqu %ymm0, 480(%rdi) leaq 320(%rsp), %rax movl $1431655765, 1448(%rsp) movl $858993459, 1452(%rsp) movl $50529027, 1456(%rsp) movl $252645135, 1460(%rsp) vpbroadcastd 1448(%rsp), %ymm0 vpbroadcastd 1452(%rsp), %ymm1 vpbroadcastd 1456(%rsp), %ymm2 vpbroadcastd 1460(%rsp), %ymm3 vmovdqu (%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%r8) vmovdqu %ymm7, 32(%r8) vmovdqu %ymm6, 64(%r8) vmovdqu %ymm4, 96(%r8) vmovdqu 32(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%r8) vmovdqu %ymm7, 160(%r8) vmovdqu %ymm6, 192(%r8) vmovdqu %ymm4, 224(%r8) vmovdqu 64(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%r8) vmovdqu %ymm7, 288(%r8) vmovdqu %ymm6, 320(%r8) vmovdqu %ymm4, 352(%r8) vmovdqu 96(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%r8) vmovdqu %ymm3, 416(%r8) vmovdqu %ymm2, 448(%r8) vmovdqu %ymm0, 480(%r8) leaq 480(%rsp), %rax movl $1431655765, 1460(%rsp) movl $858993459, 1456(%rsp) movl $50529027, 1452(%rsp) movl $252645135, 1448(%rsp) vpbroadcastd 1460(%rsp), %ymm0 vpbroadcastd 1456(%rsp), %ymm1 vpbroadcastd 1452(%rsp), %ymm2 vpbroadcastd 1448(%rsp), %ymm3 vmovdqu (%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%r9) vmovdqu %ymm7, 32(%r9) vmovdqu %ymm6, 64(%r9) vmovdqu %ymm4, 96(%r9) vmovdqu 32(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%r9) vmovdqu %ymm7, 160(%r9) vmovdqu %ymm6, 192(%r9) vmovdqu %ymm4, 224(%r9) vmovdqu 64(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%r9) vmovdqu %ymm7, 288(%r9) vmovdqu %ymm6, 320(%r9) vmovdqu %ymm4, 352(%r9) vmovdqu 96(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%r9) vmovdqu %ymm3, 416(%r9) vmovdqu %ymm2, 448(%r9) vmovdqu %ymm0, 480(%r9) jmp *1464(%rsp) L_poly_getnoise_eta1_4x$1: movq %rax, 1440(%rsp) vmovdqu (%r10), %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 320(%rsp) vmovdqu %ymm0, 480(%rsp) movb %cl, 32(%rsp) incb %cl movb %cl, 192(%rsp) incb %cl movb %cl, 352(%rsp) incb %cl movb %cl, 512(%rsp) leaq 640(%rsp), %rax movq %rsp, %rcx leaq 160(%rsp), %rdx leaq 320(%rsp), %rsi leaq 480(%rsp), %r11 leaq -8(%rsp), %rsp leaq L_poly_getnoise_eta1_4x$3(%rip), %rbx movq %rbx, (%rsp) jmp L_shake256_absorb4x_33$1 L_poly_getnoise_eta1_4x$3: leaq 8(%rsp), %rsp leaq 640(%rsp), %rax movq %rsp, %r11 leaq 160(%rsp), %rcx leaq 320(%rsp), %rdx leaq 480(%rsp), %rsi movq %rcx, %rbx movq %rdx, %rbp movq %rsi, %r12 leaq -832(%rsp), %rsp leaq L_poly_getnoise_eta1_4x$2(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L_poly_getnoise_eta1_4x$2: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) movq 1440(%rsp), %rax movq %rsp, %rcx movl $1431655765, 1448(%rsp) movl $858993459, 1452(%rsp) movl $50529027, 1456(%rsp) movl $252645135, 1460(%rsp) vpbroadcastd 1448(%rsp), %ymm0 vpbroadcastd 1452(%rsp), %ymm1 vpbroadcastd 1456(%rsp), %ymm2 vpbroadcastd 1460(%rsp), %ymm3 vmovdqu (%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%rax) vmovdqu %ymm7, 32(%rax) vmovdqu %ymm6, 64(%rax) vmovdqu %ymm4, 96(%rax) vmovdqu 32(%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%rax) vmovdqu %ymm7, 160(%rax) vmovdqu %ymm6, 192(%rax) vmovdqu %ymm4, 224(%rax) vmovdqu 64(%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%rax) vmovdqu %ymm7, 288(%rax) vmovdqu %ymm6, 320(%rax) vmovdqu %ymm4, 352(%rax) vmovdqu 96(%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%rax) vmovdqu %ymm3, 416(%rax) vmovdqu %ymm2, 448(%rax) vmovdqu %ymm0, 480(%rax) leaq 160(%rsp), %rax movl $1431655765, 1460(%rsp) movl $858993459, 1456(%rsp) movl $50529027, 1452(%rsp) movl $252645135, 1448(%rsp) vpbroadcastd 1460(%rsp), %ymm0 vpbroadcastd 1456(%rsp), %ymm1 vpbroadcastd 1452(%rsp), %ymm2 vpbroadcastd 1448(%rsp), %ymm3 vmovdqu (%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%rdi) vmovdqu %ymm7, 32(%rdi) vmovdqu %ymm6, 64(%rdi) vmovdqu %ymm4, 96(%rdi) vmovdqu 32(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%rdi) vmovdqu %ymm7, 160(%rdi) vmovdqu %ymm6, 192(%rdi) vmovdqu %ymm4, 224(%rdi) vmovdqu 64(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%rdi) vmovdqu %ymm7, 288(%rdi) vmovdqu %ymm6, 320(%rdi) vmovdqu %ymm4, 352(%rdi) vmovdqu 96(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%rdi) vmovdqu %ymm3, 416(%rdi) vmovdqu %ymm2, 448(%rdi) vmovdqu %ymm0, 480(%rdi) leaq 320(%rsp), %rax movl $1431655765, 1448(%rsp) movl $858993459, 1452(%rsp) movl $50529027, 1456(%rsp) movl $252645135, 1460(%rsp) vpbroadcastd 1448(%rsp), %ymm0 vpbroadcastd 1452(%rsp), %ymm1 vpbroadcastd 1456(%rsp), %ymm2 vpbroadcastd 1460(%rsp), %ymm3 vmovdqu (%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%r8) vmovdqu %ymm7, 32(%r8) vmovdqu %ymm6, 64(%r8) vmovdqu %ymm4, 96(%r8) vmovdqu 32(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%r8) vmovdqu %ymm7, 160(%r8) vmovdqu %ymm6, 192(%r8) vmovdqu %ymm4, 224(%r8) vmovdqu 64(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%r8) vmovdqu %ymm7, 288(%r8) vmovdqu %ymm6, 320(%r8) vmovdqu %ymm4, 352(%r8) vmovdqu 96(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%r8) vmovdqu %ymm3, 416(%r8) vmovdqu %ymm2, 448(%r8) vmovdqu %ymm0, 480(%r8) leaq 480(%rsp), %rax movl $1431655765, 1460(%rsp) movl $858993459, 1456(%rsp) movl $50529027, 1452(%rsp) movl $252645135, 1448(%rsp) vpbroadcastd 1460(%rsp), %ymm0 vpbroadcastd 1456(%rsp), %ymm1 vpbroadcastd 1452(%rsp), %ymm2 vpbroadcastd 1448(%rsp), %ymm3 vmovdqu (%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%r9) vmovdqu %ymm7, 32(%r9) vmovdqu %ymm6, 64(%r9) vmovdqu %ymm4, 96(%r9) vmovdqu 32(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%r9) vmovdqu %ymm7, 160(%r9) vmovdqu %ymm6, 192(%r9) vmovdqu %ymm4, 224(%r9) vmovdqu 64(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%r9) vmovdqu %ymm7, 288(%r9) vmovdqu %ymm6, 320(%r9) vmovdqu %ymm4, 352(%r9) vmovdqu 96(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%r9) vmovdqu %ymm3, 416(%r9) vmovdqu %ymm2, 448(%r9) vmovdqu %ymm0, 480(%r9) jmp *1464(%rsp) L_poly_getnoise$1: movl $1431655765, 172(%rsp) movl $858993459, 176(%rsp) movl $50529027, 180(%rsp) movl $252645135, 184(%rsp) movq %rax, 128(%rsp) movq (%rcx), %rax movq %rax, 136(%rsp) movq 8(%rcx), %rax movq %rax, 144(%rsp) movq 16(%rcx), %rax movq %rax, 152(%rsp) movq 24(%rcx), %rax movq %rax, 160(%rsp) movb %dl, 168(%rsp) movq %rsp, %rax leaq 136(%rsp), %rcx leaq -256(%rsp), %rsp leaq L_poly_getnoise$2(%rip), %rdx movq %rdx, 224(%rsp) jmp L_shake256_128_33$1 L_poly_getnoise$2: leaq 256(%rsp), %rsp vpbroadcastd 172(%rsp), %ymm0 vpbroadcastd 176(%rsp), %ymm1 vpbroadcastd 180(%rsp), %ymm2 vpbroadcastd 184(%rsp), %ymm3 movq 128(%rsp), %rax vmovdqu (%rsp), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%rax) vmovdqu %ymm7, 32(%rax) vmovdqu %ymm6, 64(%rax) vmovdqu %ymm4, 96(%rax) vmovdqu 32(%rsp), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%rax) vmovdqu %ymm7, 160(%rax) vmovdqu %ymm6, 192(%rax) vmovdqu %ymm4, 224(%rax) vmovdqu 64(%rsp), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%rax) vmovdqu %ymm7, 288(%rax) vmovdqu %ymm6, 320(%rax) vmovdqu %ymm4, 352(%rax) vmovdqu 96(%rsp), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%rax) vmovdqu %ymm3, 416(%rax) vmovdqu %ymm2, 448(%rax) vmovdqu %ymm0, 480(%rax) jmp *192(%rsp) L_poly_frommsg_1$1: leaq glob_data + 256(%rip), %rdi vmovdqu (%rdi), %ymm0 vbroadcasti128 glob_data + 4112(%rip), %ymm1 vbroadcasti128 glob_data + 4096(%rip), %ymm2 vmovdqu (%rax), %ymm3 vpshufd $0, %ymm3, %ymm4 vpsllvd %ymm1, %ymm4, %ymm4 vpshufb %ymm2, %ymm4, %ymm4 vpsllw $12, %ymm4, %ymm5 vpsllw $8, %ymm4, %ymm6 vpsllw $4, %ymm4, %ymm7 vpsraw $15, %ymm5, %ymm5 vpsraw $15, %ymm6, %ymm6 vpsraw $15, %ymm7, %ymm7 vpsraw $15, %ymm4, %ymm4 vpand %ymm0, %ymm5, %ymm5 vpand %ymm0, %ymm6, %ymm6 vpand %ymm0, %ymm7, %ymm7 vpand %ymm0, %ymm4, %ymm4 vpunpcklqdq %ymm6, %ymm5, %ymm8 vpunpckhqdq %ymm6, %ymm5, %ymm5 vpunpcklqdq %ymm4, %ymm7, %ymm6 vpunpckhqdq %ymm4, %ymm7, %ymm4 vperm2i128 $32, %ymm6, %ymm8, %ymm7 vperm2i128 $49, %ymm6, %ymm8, %ymm6 vperm2i128 $32, %ymm4, %ymm5, %ymm8 vperm2i128 $49, %ymm4, %ymm5, %ymm4 vmovdqu %ymm7, (%rcx) vmovdqu %ymm8, 32(%rcx) vmovdqu %ymm6, 256(%rcx) vmovdqu %ymm4, 288(%rcx) vpshufd $85, %ymm3, %ymm4 vpsllvd %ymm1, %ymm4, %ymm4 vpshufb %ymm2, %ymm4, %ymm4 vpsllw $12, %ymm4, %ymm5 vpsllw $8, %ymm4, %ymm6 vpsllw $4, %ymm4, %ymm7 vpsraw $15, %ymm5, %ymm5 vpsraw $15, %ymm6, %ymm6 vpsraw $15, %ymm7, %ymm7 vpsraw $15, %ymm4, %ymm4 vpand %ymm0, %ymm5, %ymm5 vpand %ymm0, %ymm6, %ymm6 vpand %ymm0, %ymm7, %ymm7 vpand %ymm0, %ymm4, %ymm4 vpunpcklqdq %ymm6, %ymm5, %ymm8 vpunpckhqdq %ymm6, %ymm5, %ymm5 vpunpcklqdq %ymm4, %ymm7, %ymm6 vpunpckhqdq %ymm4, %ymm7, %ymm4 vperm2i128 $32, %ymm6, %ymm8, %ymm7 vperm2i128 $49, %ymm6, %ymm8, %ymm6 vperm2i128 $32, %ymm4, %ymm5, %ymm8 vperm2i128 $49, %ymm4, %ymm5, %ymm4 vmovdqu %ymm7, 64(%rcx) vmovdqu %ymm8, 96(%rcx) vmovdqu %ymm6, 320(%rcx) vmovdqu %ymm4, 352(%rcx) vpshufd $-86, %ymm3, %ymm4 vpsllvd %ymm1, %ymm4, %ymm4 vpshufb %ymm2, %ymm4, %ymm4 vpsllw $12, %ymm4, %ymm5 vpsllw $8, %ymm4, %ymm6 vpsllw $4, %ymm4, %ymm7 vpsraw $15, %ymm5, %ymm5 vpsraw $15, %ymm6, %ymm6 vpsraw $15, %ymm7, %ymm7 vpsraw $15, %ymm4, %ymm4 vpand %ymm0, %ymm5, %ymm5 vpand %ymm0, %ymm6, %ymm6 vpand %ymm0, %ymm7, %ymm7 vpand %ymm0, %ymm4, %ymm4 vpunpcklqdq %ymm6, %ymm5, %ymm8 vpunpckhqdq %ymm6, %ymm5, %ymm5 vpunpcklqdq %ymm4, %ymm7, %ymm6 vpunpckhqdq %ymm4, %ymm7, %ymm4 vperm2i128 $32, %ymm6, %ymm8, %ymm7 vperm2i128 $49, %ymm6, %ymm8, %ymm6 vperm2i128 $32, %ymm4, %ymm5, %ymm8 vperm2i128 $49, %ymm4, %ymm5, %ymm4 vmovdqu %ymm7, 128(%rcx) vmovdqu %ymm8, 160(%rcx) vmovdqu %ymm6, 384(%rcx) vmovdqu %ymm4, 416(%rcx) vpshufd $-1, %ymm3, %ymm3 vpsllvd %ymm1, %ymm3, %ymm1 vpshufb %ymm2, %ymm1, %ymm1 vpsllw $12, %ymm1, %ymm2 vpsllw $8, %ymm1, %ymm3 vpsllw $4, %ymm1, %ymm4 vpsraw $15, %ymm2, %ymm2 vpsraw $15, %ymm3, %ymm3 vpsraw $15, %ymm4, %ymm4 vpsraw $15, %ymm1, %ymm1 vpand %ymm0, %ymm2, %ymm2 vpand %ymm0, %ymm3, %ymm3 vpand %ymm0, %ymm4, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpunpcklqdq %ymm3, %ymm2, %ymm1 vpunpckhqdq %ymm3, %ymm2, %ymm2 vpunpcklqdq %ymm0, %ymm4, %ymm3 vpunpckhqdq %ymm0, %ymm4, %ymm0 vperm2i128 $32, %ymm3, %ymm1, %ymm4 vperm2i128 $49, %ymm3, %ymm1, %ymm1 vperm2i128 $32, %ymm0, %ymm2, %ymm3 vperm2i128 $49, %ymm0, %ymm2, %ymm0 vmovdqu %ymm4, 192(%rcx) vmovdqu %ymm3, 224(%rcx) vmovdqu %ymm1, 448(%rcx) vmovdqu %ymm0, 480(%rcx) jmp *%r8 L_poly_frommsg$1: leaq glob_data + 256(%rip), %rax vmovdqu (%rax), %ymm0 vbroadcasti128 glob_data + 4112(%rip), %ymm1 vbroadcasti128 glob_data + 4096(%rip), %ymm2 vmovdqu (%rcx), %ymm3 vpshufd $0, %ymm3, %ymm4 vpsllvd %ymm1, %ymm4, %ymm4 vpshufb %ymm2, %ymm4, %ymm4 vpsllw $12, %ymm4, %ymm5 vpsllw $8, %ymm4, %ymm6 vpsllw $4, %ymm4, %ymm7 vpsraw $15, %ymm5, %ymm5 vpsraw $15, %ymm6, %ymm6 vpsraw $15, %ymm7, %ymm7 vpsraw $15, %ymm4, %ymm4 vpand %ymm0, %ymm5, %ymm5 vpand %ymm0, %ymm6, %ymm6 vpand %ymm0, %ymm7, %ymm7 vpand %ymm0, %ymm4, %ymm4 vpunpcklqdq %ymm6, %ymm5, %ymm8 vpunpckhqdq %ymm6, %ymm5, %ymm5 vpunpcklqdq %ymm4, %ymm7, %ymm6 vpunpckhqdq %ymm4, %ymm7, %ymm4 vperm2i128 $32, %ymm6, %ymm8, %ymm7 vperm2i128 $49, %ymm6, %ymm8, %ymm6 vperm2i128 $32, %ymm4, %ymm5, %ymm8 vperm2i128 $49, %ymm4, %ymm5, %ymm4 vmovdqu %ymm7, (%rdx) vmovdqu %ymm8, 32(%rdx) vmovdqu %ymm6, 256(%rdx) vmovdqu %ymm4, 288(%rdx) vpshufd $85, %ymm3, %ymm4 vpsllvd %ymm1, %ymm4, %ymm4 vpshufb %ymm2, %ymm4, %ymm4 vpsllw $12, %ymm4, %ymm5 vpsllw $8, %ymm4, %ymm6 vpsllw $4, %ymm4, %ymm7 vpsraw $15, %ymm5, %ymm5 vpsraw $15, %ymm6, %ymm6 vpsraw $15, %ymm7, %ymm7 vpsraw $15, %ymm4, %ymm4 vpand %ymm0, %ymm5, %ymm5 vpand %ymm0, %ymm6, %ymm6 vpand %ymm0, %ymm7, %ymm7 vpand %ymm0, %ymm4, %ymm4 vpunpcklqdq %ymm6, %ymm5, %ymm8 vpunpckhqdq %ymm6, %ymm5, %ymm5 vpunpcklqdq %ymm4, %ymm7, %ymm6 vpunpckhqdq %ymm4, %ymm7, %ymm4 vperm2i128 $32, %ymm6, %ymm8, %ymm7 vperm2i128 $49, %ymm6, %ymm8, %ymm6 vperm2i128 $32, %ymm4, %ymm5, %ymm8 vperm2i128 $49, %ymm4, %ymm5, %ymm4 vmovdqu %ymm7, 64(%rdx) vmovdqu %ymm8, 96(%rdx) vmovdqu %ymm6, 320(%rdx) vmovdqu %ymm4, 352(%rdx) vpshufd $-86, %ymm3, %ymm4 vpsllvd %ymm1, %ymm4, %ymm4 vpshufb %ymm2, %ymm4, %ymm4 vpsllw $12, %ymm4, %ymm5 vpsllw $8, %ymm4, %ymm6 vpsllw $4, %ymm4, %ymm7 vpsraw $15, %ymm5, %ymm5 vpsraw $15, %ymm6, %ymm6 vpsraw $15, %ymm7, %ymm7 vpsraw $15, %ymm4, %ymm4 vpand %ymm0, %ymm5, %ymm5 vpand %ymm0, %ymm6, %ymm6 vpand %ymm0, %ymm7, %ymm7 vpand %ymm0, %ymm4, %ymm4 vpunpcklqdq %ymm6, %ymm5, %ymm8 vpunpckhqdq %ymm6, %ymm5, %ymm5 vpunpcklqdq %ymm4, %ymm7, %ymm6 vpunpckhqdq %ymm4, %ymm7, %ymm4 vperm2i128 $32, %ymm6, %ymm8, %ymm7 vperm2i128 $49, %ymm6, %ymm8, %ymm6 vperm2i128 $32, %ymm4, %ymm5, %ymm8 vperm2i128 $49, %ymm4, %ymm5, %ymm4 vmovdqu %ymm7, 128(%rdx) vmovdqu %ymm8, 160(%rdx) vmovdqu %ymm6, 384(%rdx) vmovdqu %ymm4, 416(%rdx) vpshufd $-1, %ymm3, %ymm3 vpsllvd %ymm1, %ymm3, %ymm1 vpshufb %ymm2, %ymm1, %ymm1 vpsllw $12, %ymm1, %ymm2 vpsllw $8, %ymm1, %ymm3 vpsllw $4, %ymm1, %ymm4 vpsraw $15, %ymm2, %ymm2 vpsraw $15, %ymm3, %ymm3 vpsraw $15, %ymm4, %ymm4 vpsraw $15, %ymm1, %ymm1 vpand %ymm0, %ymm2, %ymm2 vpand %ymm0, %ymm3, %ymm3 vpand %ymm0, %ymm4, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpunpcklqdq %ymm3, %ymm2, %ymm1 vpunpckhqdq %ymm3, %ymm2, %ymm2 vpunpcklqdq %ymm0, %ymm4, %ymm3 vpunpckhqdq %ymm0, %ymm4, %ymm0 vperm2i128 $32, %ymm3, %ymm1, %ymm4 vperm2i128 $49, %ymm3, %ymm1, %ymm1 vperm2i128 $32, %ymm0, %ymm2, %ymm3 vperm2i128 $49, %ymm0, %ymm2, %ymm0 vmovdqu %ymm4, 192(%rdx) vmovdqu %ymm3, 224(%rdx) vmovdqu %ymm1, 448(%rdx) vmovdqu %ymm0, 480(%rdx) jmp *%rsi L_poly_frommont$1: leaq glob_data + 448(%rip), %rcx vmovdqu (%rcx), %ymm0 leaq glob_data + 416(%rip), %rcx vmovdqu (%rcx), %ymm1 leaq glob_data + 160(%rip), %rcx vmovdqu (%rcx), %ymm2 vmovdqu (%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, (%rax) vmovdqu 32(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 32(%rax) vmovdqu 64(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 64(%rax) vmovdqu 96(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 96(%rax) vmovdqu 128(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 128(%rax) vmovdqu 160(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 160(%rax) vmovdqu 192(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 192(%rax) vmovdqu 224(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 224(%rax) vmovdqu 256(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 256(%rax) vmovdqu 288(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 288(%rax) vmovdqu 320(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 320(%rax) vmovdqu 352(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 352(%rax) vmovdqu 384(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 384(%rax) vmovdqu 416(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 416(%rax) vmovdqu 448(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 448(%rax) vmovdqu 480(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm2 vpmullw %ymm1, %ymm2, %ymm1 vpmulhw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm4, %ymm0 vmovdqu %ymm0, 480(%rax) jmp *%rdx L_poly_frombytes$1: leaq glob_data + 288(%rip), %r9 vmovdqu (%r9), %ymm0 vmovdqu (%rdi), %ymm1 vmovdqu 32(%rdi), %ymm2 vmovdqu 64(%rdi), %ymm3 vmovdqu 96(%rdi), %ymm4 vmovdqu 128(%rdi), %ymm5 vmovdqu 160(%rdi), %ymm6 vperm2i128 $32, %ymm4, %ymm1, %ymm7 vperm2i128 $49, %ymm4, %ymm1, %ymm4 vperm2i128 $32, %ymm5, %ymm2, %ymm8 vperm2i128 $49, %ymm5, %ymm2, %ymm1 vperm2i128 $32, %ymm6, %ymm3, %ymm5 vperm2i128 $49, %ymm6, %ymm3, %ymm3 vpunpcklqdq %ymm1, %ymm7, %ymm6 vpunpckhqdq %ymm1, %ymm7, %ymm1 vpunpcklqdq %ymm5, %ymm4, %ymm2 vpunpckhqdq %ymm5, %ymm4, %ymm5 vpunpcklqdq %ymm3, %ymm8, %ymm7 vpunpckhqdq %ymm3, %ymm8, %ymm3 vmovsldup %ymm5, %ymm4 vpblendd $-86, %ymm4, %ymm6, %ymm4 vpsrlq $32, %ymm6, %ymm6 vpblendd $-86, %ymm5, %ymm6, %ymm5 vmovsldup %ymm7, %ymm6 vpblendd $-86, %ymm6, %ymm1, %ymm6 vpsrlq $32, %ymm1, %ymm1 vpblendd $-86, %ymm7, %ymm1, %ymm7 vmovsldup %ymm3, %ymm1 vpblendd $-86, %ymm1, %ymm2, %ymm1 vpsrlq $32, %ymm2, %ymm2 vpblendd $-86, %ymm3, %ymm2, %ymm2 vpslld $16, %ymm7, %ymm3 vpblendw $-86, %ymm3, %ymm4, %ymm3 vpsrld $16, %ymm4, %ymm4 vpblendw $-86, %ymm7, %ymm4, %ymm4 vpslld $16, %ymm1, %ymm7 vpblendw $-86, %ymm7, %ymm5, %ymm7 vpsrld $16, %ymm5, %ymm5 vpblendw $-86, %ymm1, %ymm5, %ymm1 vpslld $16, %ymm2, %ymm5 vpblendw $-86, %ymm5, %ymm6, %ymm5 vpsrld $16, %ymm6, %ymm6 vpblendw $-86, %ymm2, %ymm6, %ymm2 vpsrlw $12, %ymm3, %ymm6 vpsllw $4, %ymm4, %ymm8 vpor %ymm8, %ymm6, %ymm6 vpand %ymm3, %ymm0, %ymm3 vpand %ymm6, %ymm0, %ymm6 vpsrlw $8, %ymm4, %ymm4 vpsllw $8, %ymm7, %ymm8 vpor %ymm8, %ymm4, %ymm4 vpand %ymm4, %ymm0, %ymm4 vpsrlw $4, %ymm7, %ymm7 vpand %ymm7, %ymm0, %ymm7 vpsrlw $12, %ymm1, %ymm8 vpsllw $4, %ymm5, %ymm9 vpor %ymm9, %ymm8, %ymm8 vpand %ymm1, %ymm0, %ymm1 vpand %ymm8, %ymm0, %ymm8 vpsrlw $8, %ymm5, %ymm5 vpsllw $8, %ymm2, %ymm9 vpor %ymm9, %ymm5, %ymm5 vpand %ymm5, %ymm0, %ymm5 vpsrlw $4, %ymm2, %ymm2 vpand %ymm2, %ymm0, %ymm2 vmovdqu %ymm3, (%r8) vmovdqu %ymm6, 32(%r8) vmovdqu %ymm4, 64(%r8) vmovdqu %ymm7, 96(%r8) vmovdqu %ymm1, 128(%r8) vmovdqu %ymm8, 160(%r8) vmovdqu %ymm5, 192(%r8) vmovdqu %ymm2, 224(%r8) vmovdqu 192(%rdi), %ymm1 vmovdqu 224(%rdi), %ymm2 vmovdqu 256(%rdi), %ymm3 vmovdqu 288(%rdi), %ymm4 vmovdqu 320(%rdi), %ymm5 vmovdqu 352(%rdi), %ymm6 vperm2i128 $32, %ymm4, %ymm1, %ymm7 vperm2i128 $49, %ymm4, %ymm1, %ymm4 vperm2i128 $32, %ymm5, %ymm2, %ymm8 vperm2i128 $49, %ymm5, %ymm2, %ymm1 vperm2i128 $32, %ymm6, %ymm3, %ymm5 vperm2i128 $49, %ymm6, %ymm3, %ymm3 vpunpcklqdq %ymm1, %ymm7, %ymm6 vpunpckhqdq %ymm1, %ymm7, %ymm1 vpunpcklqdq %ymm5, %ymm4, %ymm2 vpunpckhqdq %ymm5, %ymm4, %ymm5 vpunpcklqdq %ymm3, %ymm8, %ymm7 vpunpckhqdq %ymm3, %ymm8, %ymm3 vmovsldup %ymm5, %ymm4 vpblendd $-86, %ymm4, %ymm6, %ymm4 vpsrlq $32, %ymm6, %ymm6 vpblendd $-86, %ymm5, %ymm6, %ymm5 vmovsldup %ymm7, %ymm6 vpblendd $-86, %ymm6, %ymm1, %ymm6 vpsrlq $32, %ymm1, %ymm1 vpblendd $-86, %ymm7, %ymm1, %ymm7 vmovsldup %ymm3, %ymm1 vpblendd $-86, %ymm1, %ymm2, %ymm1 vpsrlq $32, %ymm2, %ymm2 vpblendd $-86, %ymm3, %ymm2, %ymm2 vpslld $16, %ymm7, %ymm3 vpblendw $-86, %ymm3, %ymm4, %ymm3 vpsrld $16, %ymm4, %ymm4 vpblendw $-86, %ymm7, %ymm4, %ymm4 vpslld $16, %ymm1, %ymm7 vpblendw $-86, %ymm7, %ymm5, %ymm7 vpsrld $16, %ymm5, %ymm5 vpblendw $-86, %ymm1, %ymm5, %ymm1 vpslld $16, %ymm2, %ymm5 vpblendw $-86, %ymm5, %ymm6, %ymm5 vpsrld $16, %ymm6, %ymm6 vpblendw $-86, %ymm2, %ymm6, %ymm2 vpsrlw $12, %ymm3, %ymm6 vpsllw $4, %ymm4, %ymm8 vpor %ymm8, %ymm6, %ymm6 vpand %ymm3, %ymm0, %ymm3 vpand %ymm6, %ymm0, %ymm6 vpsrlw $8, %ymm4, %ymm4 vpsllw $8, %ymm7, %ymm8 vpor %ymm8, %ymm4, %ymm4 vpand %ymm4, %ymm0, %ymm4 vpsrlw $4, %ymm7, %ymm7 vpand %ymm7, %ymm0, %ymm7 vpsrlw $12, %ymm1, %ymm8 vpsllw $4, %ymm5, %ymm9 vpor %ymm9, %ymm8, %ymm8 vpand %ymm1, %ymm0, %ymm1 vpand %ymm8, %ymm0, %ymm8 vpsrlw $8, %ymm5, %ymm5 vpsllw $8, %ymm2, %ymm9 vpor %ymm9, %ymm5, %ymm5 vpand %ymm5, %ymm0, %ymm5 vpsrlw $4, %ymm2, %ymm2 vpand %ymm2, %ymm0, %ymm0 vmovdqu %ymm3, 256(%r8) vmovdqu %ymm6, 288(%r8) vmovdqu %ymm4, 320(%r8) vmovdqu %ymm7, 352(%r8) vmovdqu %ymm1, 384(%r8) vmovdqu %ymm8, 416(%r8) vmovdqu %ymm5, 448(%r8) vmovdqu %ymm0, 480(%r8) jmp *%r10 L_poly_decompress$1: leaq glob_data + 448(%rip), %rdi vmovdqu (%rdi), %ymm0 leaq glob_data + 96(%rip), %rdi vmovdqu (%rdi), %ymm1 vpbroadcastd glob_data + 6412(%rip), %ymm2 vpbroadcastd glob_data + 6408(%rip), %ymm3 vpxor %ymm4, %ymm4, %ymm4 movq (%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, (%rcx) movq 8(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 32(%rcx) movq 16(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 64(%rcx) movq 24(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 96(%rcx) movq 32(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 128(%rcx) movq 40(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 160(%rcx) movq 48(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 192(%rcx) movq 56(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 224(%rcx) movq 64(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 256(%rcx) movq 72(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 288(%rcx) movq 80(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 320(%rcx) movq 88(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 352(%rcx) movq 96(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 384(%rcx) movq 104(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 416(%rcx) movq 112(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 448(%rcx) movq 120(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm1 vpand %ymm2, %ymm1, %ymm1 vpmullw %ymm3, %ymm1, %ymm1 vpmulhrsw %ymm0, %ymm1, %ymm0 vmovdqu %ymm0, 480(%rcx) jmp *%r8 L_poly_compress_1$1: leaq L_poly_compress_1$2(%rip), %r8 jmp L_poly_csubq$1 L_poly_compress_1$2: leaq glob_data + 384(%rip), %rdx vmovdqu (%rdx), %ymm0 vpbroadcastw glob_data + 6428(%rip), %ymm1 vpbroadcastw glob_data + 6426(%rip), %ymm2 vpbroadcastw glob_data + 6424(%rip), %ymm3 vmovdqu glob_data + 128(%rip), %ymm4 vmovdqu (%rcx), %ymm5 vmovdqu 32(%rcx), %ymm6 vmovdqu 64(%rcx), %ymm7 vmovdqu 96(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm8, %ymm8 vpand %ymm2, %ymm5, %ymm5 vpand %ymm2, %ymm6, %ymm6 vpand %ymm2, %ymm7, %ymm7 vpand %ymm2, %ymm8, %ymm8 vpackuswb %ymm6, %ymm5, %ymm5 vpackuswb %ymm8, %ymm7, %ymm6 vpmaddubsw %ymm3, %ymm5, %ymm5 vpmaddubsw %ymm3, %ymm6, %ymm6 vpackuswb %ymm6, %ymm5, %ymm5 vpermd %ymm5, %ymm4, %ymm5 vmovdqu %ymm5, (%rax) vmovdqu 128(%rcx), %ymm5 vmovdqu 160(%rcx), %ymm6 vmovdqu 192(%rcx), %ymm7 vmovdqu 224(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm8, %ymm8 vpand %ymm2, %ymm5, %ymm5 vpand %ymm2, %ymm6, %ymm6 vpand %ymm2, %ymm7, %ymm7 vpand %ymm2, %ymm8, %ymm8 vpackuswb %ymm6, %ymm5, %ymm5 vpackuswb %ymm8, %ymm7, %ymm6 vpmaddubsw %ymm3, %ymm5, %ymm5 vpmaddubsw %ymm3, %ymm6, %ymm6 vpackuswb %ymm6, %ymm5, %ymm5 vpermd %ymm5, %ymm4, %ymm5 vmovdqu %ymm5, 32(%rax) vmovdqu 256(%rcx), %ymm5 vmovdqu 288(%rcx), %ymm6 vmovdqu 320(%rcx), %ymm7 vmovdqu 352(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm8, %ymm8 vpand %ymm2, %ymm5, %ymm5 vpand %ymm2, %ymm6, %ymm6 vpand %ymm2, %ymm7, %ymm7 vpand %ymm2, %ymm8, %ymm8 vpackuswb %ymm6, %ymm5, %ymm5 vpackuswb %ymm8, %ymm7, %ymm6 vpmaddubsw %ymm3, %ymm5, %ymm5 vpmaddubsw %ymm3, %ymm6, %ymm6 vpackuswb %ymm6, %ymm5, %ymm5 vpermd %ymm5, %ymm4, %ymm5 vmovdqu %ymm5, 64(%rax) vmovdqu 384(%rcx), %ymm5 vmovdqu 416(%rcx), %ymm6 vmovdqu 448(%rcx), %ymm7 vmovdqu 480(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm0 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm0, %ymm0 vpand %ymm2, %ymm5, %ymm1 vpand %ymm2, %ymm6, %ymm5 vpand %ymm2, %ymm7, %ymm6 vpand %ymm2, %ymm0, %ymm0 vpackuswb %ymm5, %ymm1, %ymm1 vpackuswb %ymm0, %ymm6, %ymm0 vpmaddubsw %ymm3, %ymm1, %ymm1 vpmaddubsw %ymm3, %ymm0, %ymm0 vpackuswb %ymm0, %ymm1, %ymm0 vpermd %ymm0, %ymm4, %ymm0 vmovdqu %ymm0, 96(%rax) jmp *%rsi L_poly_compress$1: leaq L_poly_compress$2(%rip), %r8 jmp L_poly_csubq$1 L_poly_compress$2: leaq glob_data + 384(%rip), %rdx vmovdqu (%rdx), %ymm0 vpbroadcastw glob_data + 6428(%rip), %ymm1 vpbroadcastw glob_data + 6426(%rip), %ymm2 vpbroadcastw glob_data + 6424(%rip), %ymm3 vmovdqu glob_data + 128(%rip), %ymm4 vmovdqu (%rcx), %ymm5 vmovdqu 32(%rcx), %ymm6 vmovdqu 64(%rcx), %ymm7 vmovdqu 96(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm8, %ymm8 vpand %ymm2, %ymm5, %ymm5 vpand %ymm2, %ymm6, %ymm6 vpand %ymm2, %ymm7, %ymm7 vpand %ymm2, %ymm8, %ymm8 vpackuswb %ymm6, %ymm5, %ymm5 vpackuswb %ymm8, %ymm7, %ymm6 vpmaddubsw %ymm3, %ymm5, %ymm5 vpmaddubsw %ymm3, %ymm6, %ymm6 vpackuswb %ymm6, %ymm5, %ymm5 vpermd %ymm5, %ymm4, %ymm5 vmovdqu %ymm5, (%rax) vmovdqu 128(%rcx), %ymm5 vmovdqu 160(%rcx), %ymm6 vmovdqu 192(%rcx), %ymm7 vmovdqu 224(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm8, %ymm8 vpand %ymm2, %ymm5, %ymm5 vpand %ymm2, %ymm6, %ymm6 vpand %ymm2, %ymm7, %ymm7 vpand %ymm2, %ymm8, %ymm8 vpackuswb %ymm6, %ymm5, %ymm5 vpackuswb %ymm8, %ymm7, %ymm6 vpmaddubsw %ymm3, %ymm5, %ymm5 vpmaddubsw %ymm3, %ymm6, %ymm6 vpackuswb %ymm6, %ymm5, %ymm5 vpermd %ymm5, %ymm4, %ymm5 vmovdqu %ymm5, 32(%rax) vmovdqu 256(%rcx), %ymm5 vmovdqu 288(%rcx), %ymm6 vmovdqu 320(%rcx), %ymm7 vmovdqu 352(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm8, %ymm8 vpand %ymm2, %ymm5, %ymm5 vpand %ymm2, %ymm6, %ymm6 vpand %ymm2, %ymm7, %ymm7 vpand %ymm2, %ymm8, %ymm8 vpackuswb %ymm6, %ymm5, %ymm5 vpackuswb %ymm8, %ymm7, %ymm6 vpmaddubsw %ymm3, %ymm5, %ymm5 vpmaddubsw %ymm3, %ymm6, %ymm6 vpackuswb %ymm6, %ymm5, %ymm5 vpermd %ymm5, %ymm4, %ymm5 vmovdqu %ymm5, 64(%rax) vmovdqu 384(%rcx), %ymm5 vmovdqu 416(%rcx), %ymm6 vmovdqu 448(%rcx), %ymm7 vmovdqu 480(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm0 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm0, %ymm0 vpand %ymm2, %ymm5, %ymm1 vpand %ymm2, %ymm6, %ymm5 vpand %ymm2, %ymm7, %ymm6 vpand %ymm2, %ymm0, %ymm0 vpackuswb %ymm5, %ymm1, %ymm1 vpackuswb %ymm0, %ymm6, %ymm0 vpmaddubsw %ymm3, %ymm1, %ymm1 vpmaddubsw %ymm3, %ymm0, %ymm0 vpackuswb %ymm0, %ymm1, %ymm0 vpermd %ymm0, %ymm4, %ymm0 vmovdqu %ymm0, 96(%rax) jmp *%rsi L_poly_basemul$1: vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 416(%rip), %ymm1 vmovdqu glob_data + 1552(%rip), %ymm2 vmovdqu glob_data + 1584(%rip), %ymm3 vmovdqu (%rsi), %ymm4 vmovdqu 32(%rsi), %ymm5 vmovdqu (%rdi), %ymm6 vmovdqu 32(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm8 vpmulhw %ymm5, %ymm3, %ymm9 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm8, %ymm9, %ymm8 vpmullw %ymm6, %ymm4, %ymm10 vpmulhw %ymm6, %ymm4, %ymm11 vpunpcklwd %ymm11, %ymm10, %ymm9 vpunpckhwd %ymm11, %ymm10, %ymm10 vpmullw %ymm7, %ymm4, %ymm12 vpmulhw %ymm7, %ymm4, %ymm4 vpunpcklwd %ymm4, %ymm12, %ymm11 vpunpckhwd %ymm4, %ymm12, %ymm4 vpmullw %ymm6, %ymm5, %ymm12 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm12, %ymm5 vpunpckhwd %ymm6, %ymm12, %ymm6 vpmullw %ymm7, %ymm8, %ymm12 vpmulhw %ymm7, %ymm8, %ymm7 vpunpcklwd %ymm7, %ymm12, %ymm8 vpunpckhwd %ymm7, %ymm12, %ymm12 vpaddd %ymm8, %ymm9, %ymm7 vpaddd %ymm12, %ymm10, %ymm8 vpaddd %ymm11, %ymm5, %ymm5 vpaddd %ymm4, %ymm6, %ymm4 vpxor %ymm9, %ymm9, %ymm9 vpblendw $-86, %ymm9, %ymm7, %ymm6 vpblendw $-86, %ymm9, %ymm8, %ymm10 vpackusdw %ymm10, %ymm6, %ymm6 vpsrld $16, %ymm7, %ymm7 vpsrld $16, %ymm8, %ymm8 vpackusdw %ymm8, %ymm7, %ymm7 vpblendw $-86, %ymm9, %ymm5, %ymm8 vpblendw $-86, %ymm9, %ymm4, %ymm9 vpackusdw %ymm9, %ymm8, %ymm8 vpsrld $16, %ymm5, %ymm5 vpsrld $16, %ymm4, %ymm4 vpackusdw %ymm4, %ymm5, %ymm4 vpmullw %ymm1, %ymm6, %ymm5 vpmulhw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm7, %ymm5 vpmullw %ymm1, %ymm8, %ymm6 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm4, %ymm4 vmovdqu %ymm5, (%rcx) vmovdqu %ymm4, 32(%rcx) vmovdqu 64(%rsi), %ymm4 vmovdqu 96(%rsi), %ymm5 vmovdqu 64(%rdi), %ymm6 vmovdqu 96(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm2 vpmulhw %ymm5, %ymm3, %ymm3 vpmulhw %ymm0, %ymm2, %ymm2 vpsubw %ymm2, %ymm3, %ymm2 vpmullw %ymm6, %ymm4, %ymm8 vpmulhw %ymm6, %ymm4, %ymm9 vpunpcklwd %ymm9, %ymm8, %ymm3 vpunpckhwd %ymm9, %ymm8, %ymm8 vpmullw %ymm7, %ymm4, %ymm9 vpmulhw %ymm7, %ymm4, %ymm10 vpunpcklwd %ymm10, %ymm9, %ymm4 vpunpckhwd %ymm10, %ymm9, %ymm9 vpmullw %ymm6, %ymm5, %ymm10 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm10, %ymm5 vpunpckhwd %ymm6, %ymm10, %ymm6 vpmullw %ymm7, %ymm2, %ymm10 vpmulhw %ymm7, %ymm2, %ymm2 vpunpcklwd %ymm2, %ymm10, %ymm7 vpunpckhwd %ymm2, %ymm10, %ymm2 vpsubd %ymm7, %ymm3, %ymm7 vpsubd %ymm2, %ymm8, %ymm8 vpaddd %ymm4, %ymm5, %ymm2 vpaddd %ymm9, %ymm6, %ymm3 vpxor %ymm5, %ymm5, %ymm5 vpblendw $-86, %ymm5, %ymm7, %ymm4 vpblendw $-86, %ymm5, %ymm8, %ymm6 vpackusdw %ymm6, %ymm4, %ymm4 vpsrld $16, %ymm7, %ymm6 vpsrld $16, %ymm8, %ymm7 vpackusdw %ymm7, %ymm6, %ymm6 vpblendw $-86, %ymm5, %ymm2, %ymm7 vpblendw $-86, %ymm5, %ymm3, %ymm5 vpackusdw %ymm5, %ymm7, %ymm5 vpsrld $16, %ymm2, %ymm2 vpsrld $16, %ymm3, %ymm3 vpackusdw %ymm3, %ymm2, %ymm2 vpmullw %ymm1, %ymm4, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm6, %ymm3 vpmullw %ymm1, %ymm5, %ymm4 vpmulhw %ymm0, %ymm4, %ymm4 vpsubw %ymm4, %ymm2, %ymm2 vmovdqu %ymm3, 64(%rcx) vmovdqu %ymm2, 96(%rcx) vmovdqu glob_data + 1616(%rip), %ymm2 vmovdqu glob_data + 1648(%rip), %ymm3 vmovdqu 128(%rsi), %ymm4 vmovdqu 160(%rsi), %ymm5 vmovdqu 128(%rdi), %ymm6 vmovdqu 160(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm8 vpmulhw %ymm5, %ymm3, %ymm9 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm8, %ymm9, %ymm8 vpmullw %ymm6, %ymm4, %ymm10 vpmulhw %ymm6, %ymm4, %ymm11 vpunpcklwd %ymm11, %ymm10, %ymm9 vpunpckhwd %ymm11, %ymm10, %ymm10 vpmullw %ymm7, %ymm4, %ymm12 vpmulhw %ymm7, %ymm4, %ymm4 vpunpcklwd %ymm4, %ymm12, %ymm11 vpunpckhwd %ymm4, %ymm12, %ymm4 vpmullw %ymm6, %ymm5, %ymm12 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm12, %ymm5 vpunpckhwd %ymm6, %ymm12, %ymm6 vpmullw %ymm7, %ymm8, %ymm12 vpmulhw %ymm7, %ymm8, %ymm7 vpunpcklwd %ymm7, %ymm12, %ymm8 vpunpckhwd %ymm7, %ymm12, %ymm12 vpaddd %ymm8, %ymm9, %ymm7 vpaddd %ymm12, %ymm10, %ymm8 vpaddd %ymm11, %ymm5, %ymm5 vpaddd %ymm4, %ymm6, %ymm4 vpxor %ymm9, %ymm9, %ymm9 vpblendw $-86, %ymm9, %ymm7, %ymm6 vpblendw $-86, %ymm9, %ymm8, %ymm10 vpackusdw %ymm10, %ymm6, %ymm6 vpsrld $16, %ymm7, %ymm7 vpsrld $16, %ymm8, %ymm8 vpackusdw %ymm8, %ymm7, %ymm7 vpblendw $-86, %ymm9, %ymm5, %ymm8 vpblendw $-86, %ymm9, %ymm4, %ymm9 vpackusdw %ymm9, %ymm8, %ymm8 vpsrld $16, %ymm5, %ymm5 vpsrld $16, %ymm4, %ymm4 vpackusdw %ymm4, %ymm5, %ymm4 vpmullw %ymm1, %ymm6, %ymm5 vpmulhw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm7, %ymm5 vpmullw %ymm1, %ymm8, %ymm6 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm4, %ymm4 vmovdqu %ymm5, 128(%rcx) vmovdqu %ymm4, 160(%rcx) vmovdqu 192(%rsi), %ymm4 vmovdqu 224(%rsi), %ymm5 vmovdqu 192(%rdi), %ymm6 vmovdqu 224(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm2 vpmulhw %ymm5, %ymm3, %ymm3 vpmulhw %ymm0, %ymm2, %ymm2 vpsubw %ymm2, %ymm3, %ymm2 vpmullw %ymm6, %ymm4, %ymm8 vpmulhw %ymm6, %ymm4, %ymm9 vpunpcklwd %ymm9, %ymm8, %ymm3 vpunpckhwd %ymm9, %ymm8, %ymm8 vpmullw %ymm7, %ymm4, %ymm9 vpmulhw %ymm7, %ymm4, %ymm10 vpunpcklwd %ymm10, %ymm9, %ymm4 vpunpckhwd %ymm10, %ymm9, %ymm9 vpmullw %ymm6, %ymm5, %ymm10 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm10, %ymm5 vpunpckhwd %ymm6, %ymm10, %ymm6 vpmullw %ymm7, %ymm2, %ymm10 vpmulhw %ymm7, %ymm2, %ymm2 vpunpcklwd %ymm2, %ymm10, %ymm7 vpunpckhwd %ymm2, %ymm10, %ymm2 vpsubd %ymm7, %ymm3, %ymm7 vpsubd %ymm2, %ymm8, %ymm8 vpaddd %ymm4, %ymm5, %ymm2 vpaddd %ymm9, %ymm6, %ymm3 vpxor %ymm5, %ymm5, %ymm5 vpblendw $-86, %ymm5, %ymm7, %ymm4 vpblendw $-86, %ymm5, %ymm8, %ymm6 vpackusdw %ymm6, %ymm4, %ymm4 vpsrld $16, %ymm7, %ymm6 vpsrld $16, %ymm8, %ymm7 vpackusdw %ymm7, %ymm6, %ymm6 vpblendw $-86, %ymm5, %ymm2, %ymm7 vpblendw $-86, %ymm5, %ymm3, %ymm5 vpackusdw %ymm5, %ymm7, %ymm5 vpsrld $16, %ymm2, %ymm2 vpsrld $16, %ymm3, %ymm3 vpackusdw %ymm3, %ymm2, %ymm2 vpmullw %ymm1, %ymm4, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm6, %ymm3 vpmullw %ymm1, %ymm5, %ymm4 vpmulhw %ymm0, %ymm4, %ymm4 vpsubw %ymm4, %ymm2, %ymm2 vmovdqu %ymm3, 192(%rcx) vmovdqu %ymm2, 224(%rcx) vmovdqu glob_data + 1944(%rip), %ymm2 vmovdqu glob_data + 1976(%rip), %ymm3 vmovdqu 256(%rsi), %ymm4 vmovdqu 288(%rsi), %ymm5 vmovdqu 256(%rdi), %ymm6 vmovdqu 288(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm8 vpmulhw %ymm5, %ymm3, %ymm9 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm8, %ymm9, %ymm8 vpmullw %ymm6, %ymm4, %ymm10 vpmulhw %ymm6, %ymm4, %ymm11 vpunpcklwd %ymm11, %ymm10, %ymm9 vpunpckhwd %ymm11, %ymm10, %ymm10 vpmullw %ymm7, %ymm4, %ymm12 vpmulhw %ymm7, %ymm4, %ymm4 vpunpcklwd %ymm4, %ymm12, %ymm11 vpunpckhwd %ymm4, %ymm12, %ymm4 vpmullw %ymm6, %ymm5, %ymm12 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm12, %ymm5 vpunpckhwd %ymm6, %ymm12, %ymm6 vpmullw %ymm7, %ymm8, %ymm12 vpmulhw %ymm7, %ymm8, %ymm7 vpunpcklwd %ymm7, %ymm12, %ymm8 vpunpckhwd %ymm7, %ymm12, %ymm12 vpaddd %ymm8, %ymm9, %ymm7 vpaddd %ymm12, %ymm10, %ymm8 vpaddd %ymm11, %ymm5, %ymm5 vpaddd %ymm4, %ymm6, %ymm4 vpxor %ymm9, %ymm9, %ymm9 vpblendw $-86, %ymm9, %ymm7, %ymm6 vpblendw $-86, %ymm9, %ymm8, %ymm10 vpackusdw %ymm10, %ymm6, %ymm6 vpsrld $16, %ymm7, %ymm7 vpsrld $16, %ymm8, %ymm8 vpackusdw %ymm8, %ymm7, %ymm7 vpblendw $-86, %ymm9, %ymm5, %ymm8 vpblendw $-86, %ymm9, %ymm4, %ymm9 vpackusdw %ymm9, %ymm8, %ymm8 vpsrld $16, %ymm5, %ymm5 vpsrld $16, %ymm4, %ymm4 vpackusdw %ymm4, %ymm5, %ymm4 vpmullw %ymm1, %ymm6, %ymm5 vpmulhw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm7, %ymm5 vpmullw %ymm1, %ymm8, %ymm6 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm4, %ymm4 vmovdqu %ymm5, 256(%rcx) vmovdqu %ymm4, 288(%rcx) vmovdqu 320(%rsi), %ymm4 vmovdqu 352(%rsi), %ymm5 vmovdqu 320(%rdi), %ymm6 vmovdqu 352(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm2 vpmulhw %ymm5, %ymm3, %ymm3 vpmulhw %ymm0, %ymm2, %ymm2 vpsubw %ymm2, %ymm3, %ymm2 vpmullw %ymm6, %ymm4, %ymm8 vpmulhw %ymm6, %ymm4, %ymm9 vpunpcklwd %ymm9, %ymm8, %ymm3 vpunpckhwd %ymm9, %ymm8, %ymm8 vpmullw %ymm7, %ymm4, %ymm9 vpmulhw %ymm7, %ymm4, %ymm10 vpunpcklwd %ymm10, %ymm9, %ymm4 vpunpckhwd %ymm10, %ymm9, %ymm9 vpmullw %ymm6, %ymm5, %ymm10 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm10, %ymm5 vpunpckhwd %ymm6, %ymm10, %ymm6 vpmullw %ymm7, %ymm2, %ymm10 vpmulhw %ymm7, %ymm2, %ymm2 vpunpcklwd %ymm2, %ymm10, %ymm7 vpunpckhwd %ymm2, %ymm10, %ymm2 vpsubd %ymm7, %ymm3, %ymm7 vpsubd %ymm2, %ymm8, %ymm8 vpaddd %ymm4, %ymm5, %ymm2 vpaddd %ymm9, %ymm6, %ymm3 vpxor %ymm5, %ymm5, %ymm5 vpblendw $-86, %ymm5, %ymm7, %ymm4 vpblendw $-86, %ymm5, %ymm8, %ymm6 vpackusdw %ymm6, %ymm4, %ymm4 vpsrld $16, %ymm7, %ymm6 vpsrld $16, %ymm8, %ymm7 vpackusdw %ymm7, %ymm6, %ymm6 vpblendw $-86, %ymm5, %ymm2, %ymm7 vpblendw $-86, %ymm5, %ymm3, %ymm5 vpackusdw %ymm5, %ymm7, %ymm5 vpsrld $16, %ymm2, %ymm2 vpsrld $16, %ymm3, %ymm3 vpackusdw %ymm3, %ymm2, %ymm2 vpmullw %ymm1, %ymm4, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm6, %ymm3 vpmullw %ymm1, %ymm5, %ymm4 vpmulhw %ymm0, %ymm4, %ymm4 vpsubw %ymm4, %ymm2, %ymm2 vmovdqu %ymm3, 320(%rcx) vmovdqu %ymm2, 352(%rcx) vmovdqu glob_data + 2008(%rip), %ymm2 vmovdqu glob_data + 2040(%rip), %ymm3 vmovdqu 384(%rsi), %ymm4 vmovdqu 416(%rsi), %ymm5 vmovdqu 384(%rdi), %ymm6 vmovdqu 416(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm8 vpmulhw %ymm5, %ymm3, %ymm9 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm8, %ymm9, %ymm8 vpmullw %ymm6, %ymm4, %ymm10 vpmulhw %ymm6, %ymm4, %ymm11 vpunpcklwd %ymm11, %ymm10, %ymm9 vpunpckhwd %ymm11, %ymm10, %ymm10 vpmullw %ymm7, %ymm4, %ymm12 vpmulhw %ymm7, %ymm4, %ymm4 vpunpcklwd %ymm4, %ymm12, %ymm11 vpunpckhwd %ymm4, %ymm12, %ymm4 vpmullw %ymm6, %ymm5, %ymm12 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm12, %ymm5 vpunpckhwd %ymm6, %ymm12, %ymm6 vpmullw %ymm7, %ymm8, %ymm12 vpmulhw %ymm7, %ymm8, %ymm7 vpunpcklwd %ymm7, %ymm12, %ymm8 vpunpckhwd %ymm7, %ymm12, %ymm12 vpaddd %ymm8, %ymm9, %ymm7 vpaddd %ymm12, %ymm10, %ymm8 vpaddd %ymm11, %ymm5, %ymm5 vpaddd %ymm4, %ymm6, %ymm4 vpxor %ymm9, %ymm9, %ymm9 vpblendw $-86, %ymm9, %ymm7, %ymm6 vpblendw $-86, %ymm9, %ymm8, %ymm10 vpackusdw %ymm10, %ymm6, %ymm6 vpsrld $16, %ymm7, %ymm7 vpsrld $16, %ymm8, %ymm8 vpackusdw %ymm8, %ymm7, %ymm7 vpblendw $-86, %ymm9, %ymm5, %ymm8 vpblendw $-86, %ymm9, %ymm4, %ymm9 vpackusdw %ymm9, %ymm8, %ymm8 vpsrld $16, %ymm5, %ymm5 vpsrld $16, %ymm4, %ymm4 vpackusdw %ymm4, %ymm5, %ymm4 vpmullw %ymm1, %ymm6, %ymm5 vpmulhw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm7, %ymm5 vpmullw %ymm1, %ymm8, %ymm6 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm4, %ymm4 vmovdqu %ymm5, 384(%rcx) vmovdqu %ymm4, 416(%rcx) vmovdqu 448(%rsi), %ymm4 vmovdqu 480(%rsi), %ymm5 vmovdqu 448(%rdi), %ymm6 vmovdqu 480(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm2 vpmulhw %ymm5, %ymm3, %ymm3 vpmulhw %ymm0, %ymm2, %ymm2 vpsubw %ymm2, %ymm3, %ymm2 vpmullw %ymm6, %ymm4, %ymm8 vpmulhw %ymm6, %ymm4, %ymm9 vpunpcklwd %ymm9, %ymm8, %ymm3 vpunpckhwd %ymm9, %ymm8, %ymm8 vpmullw %ymm7, %ymm4, %ymm9 vpmulhw %ymm7, %ymm4, %ymm10 vpunpcklwd %ymm10, %ymm9, %ymm4 vpunpckhwd %ymm10, %ymm9, %ymm9 vpmullw %ymm6, %ymm5, %ymm10 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm10, %ymm5 vpunpckhwd %ymm6, %ymm10, %ymm6 vpmullw %ymm7, %ymm2, %ymm10 vpmulhw %ymm7, %ymm2, %ymm2 vpunpcklwd %ymm2, %ymm10, %ymm7 vpunpckhwd %ymm2, %ymm10, %ymm2 vpsubd %ymm7, %ymm3, %ymm7 vpsubd %ymm2, %ymm8, %ymm8 vpaddd %ymm4, %ymm5, %ymm2 vpaddd %ymm9, %ymm6, %ymm3 vpxor %ymm5, %ymm5, %ymm5 vpblendw $-86, %ymm5, %ymm7, %ymm4 vpblendw $-86, %ymm5, %ymm8, %ymm6 vpackusdw %ymm6, %ymm4, %ymm4 vpsrld $16, %ymm7, %ymm6 vpsrld $16, %ymm8, %ymm7 vpackusdw %ymm7, %ymm6, %ymm6 vpblendw $-86, %ymm5, %ymm2, %ymm7 vpblendw $-86, %ymm5, %ymm3, %ymm5 vpackusdw %ymm5, %ymm7, %ymm5 vpsrld $16, %ymm2, %ymm2 vpsrld $16, %ymm3, %ymm3 vpackusdw %ymm3, %ymm2, %ymm2 vpmullw %ymm1, %ymm4, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm6, %ymm3 vpmullw %ymm1, %ymm5, %ymm1 vpmulhw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm3, 448(%rcx) vmovdqu %ymm0, 480(%rcx) jmp *%r8 L_poly_csubq$1: vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu (%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, (%rcx) vmovdqu 32(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 32(%rcx) vmovdqu 64(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 64(%rcx) vmovdqu 96(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 96(%rcx) vmovdqu 128(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 128(%rcx) vmovdqu 160(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 160(%rcx) vmovdqu 192(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 192(%rcx) vmovdqu 224(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 224(%rcx) vmovdqu 256(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 256(%rcx) vmovdqu 288(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 288(%rcx) vmovdqu 320(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 320(%rcx) vmovdqu 352(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 352(%rcx) vmovdqu 384(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 384(%rcx) vmovdqu 416(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 416(%rcx) vmovdqu 448(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 448(%rcx) vmovdqu 480(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm0 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 480(%rcx) jmp *%r8 L_poly_add2$1: vmovdqu (%rcx), %ymm0 vmovdqu (%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, (%rcx) vmovdqu 32(%rcx), %ymm0 vmovdqu 32(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 32(%rcx) vmovdqu 64(%rcx), %ymm0 vmovdqu 64(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 64(%rcx) vmovdqu 96(%rcx), %ymm0 vmovdqu 96(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 96(%rcx) vmovdqu 128(%rcx), %ymm0 vmovdqu 128(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 128(%rcx) vmovdqu 160(%rcx), %ymm0 vmovdqu 160(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 160(%rcx) vmovdqu 192(%rcx), %ymm0 vmovdqu 192(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 192(%rcx) vmovdqu 224(%rcx), %ymm0 vmovdqu 224(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 224(%rcx) vmovdqu 256(%rcx), %ymm0 vmovdqu 256(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 256(%rcx) vmovdqu 288(%rcx), %ymm0 vmovdqu 288(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 288(%rcx) vmovdqu 320(%rcx), %ymm0 vmovdqu 320(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 320(%rcx) vmovdqu 352(%rcx), %ymm0 vmovdqu 352(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 352(%rcx) vmovdqu 384(%rcx), %ymm0 vmovdqu 384(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 384(%rcx) vmovdqu 416(%rcx), %ymm0 vmovdqu 416(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 416(%rcx) vmovdqu 448(%rcx), %ymm0 vmovdqu 448(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 448(%rcx) vmovdqu 480(%rcx), %ymm0 vmovdqu 480(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 480(%rcx) jmp *%rdi L_nttunpack$1: vmovdqu (%rax), %ymm1 vmovdqu 32(%rax), %ymm3 vmovdqu 64(%rax), %ymm4 vmovdqu 96(%rax), %ymm5 vmovdqu 128(%rax), %ymm2 vmovdqu 160(%rax), %ymm6 vmovdqu 192(%rax), %ymm7 vmovdqu 224(%rax), %ymm8 vperm2i128 $32, %ymm2, %ymm1, %ymm0 vperm2i128 $49, %ymm2, %ymm1, %ymm1 vperm2i128 $32, %ymm6, %ymm3, %ymm2 vperm2i128 $49, %ymm6, %ymm3, %ymm3 vperm2i128 $32, %ymm7, %ymm4, %ymm6 vperm2i128 $49, %ymm7, %ymm4, %ymm7 vperm2i128 $32, %ymm8, %ymm5, %ymm9 vperm2i128 $49, %ymm8, %ymm5, %ymm10 vpunpcklqdq %ymm6, %ymm0, %ymm4 vpunpckhqdq %ymm6, %ymm0, %ymm5 vpunpcklqdq %ymm7, %ymm1, %ymm6 vpunpckhqdq %ymm7, %ymm1, %ymm7 vpunpcklqdq %ymm9, %ymm2, %ymm0 vpunpckhqdq %ymm9, %ymm2, %ymm2 vpunpcklqdq %ymm10, %ymm3, %ymm8 vpunpckhqdq %ymm10, %ymm3, %ymm3 vmovsldup %ymm0, %ymm1 vpblendd $-86, %ymm1, %ymm4, %ymm9 vpsrlq $32, %ymm4, %ymm1 vpblendd $-86, %ymm0, %ymm1, %ymm0 vmovsldup %ymm2, %ymm1 vpblendd $-86, %ymm1, %ymm5, %ymm1 vpsrlq $32, %ymm5, %ymm4 vpblendd $-86, %ymm2, %ymm4, %ymm2 vmovsldup %ymm8, %ymm4 vpblendd $-86, %ymm4, %ymm6, %ymm4 vpsrlq $32, %ymm6, %ymm5 vpblendd $-86, %ymm8, %ymm5, %ymm5 vmovsldup %ymm3, %ymm6 vpblendd $-86, %ymm6, %ymm7, %ymm6 vpsrlq $32, %ymm7, %ymm7 vpblendd $-86, %ymm3, %ymm7, %ymm3 vpslld $16, %ymm4, %ymm7 vpblendw $-86, %ymm7, %ymm9, %ymm7 vpsrld $16, %ymm9, %ymm8 vpblendw $-86, %ymm4, %ymm8, %ymm4 vpslld $16, %ymm5, %ymm8 vpblendw $-86, %ymm8, %ymm0, %ymm8 vpsrld $16, %ymm0, %ymm0 vpblendw $-86, %ymm5, %ymm0, %ymm0 vpslld $16, %ymm6, %ymm5 vpblendw $-86, %ymm5, %ymm1, %ymm5 vpsrld $16, %ymm1, %ymm1 vpblendw $-86, %ymm6, %ymm1, %ymm1 vpslld $16, %ymm3, %ymm6 vpblendw $-86, %ymm6, %ymm2, %ymm6 vpsrld $16, %ymm2, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm2 vmovdqu %ymm7, (%rax) vmovdqu %ymm4, 32(%rax) vmovdqu %ymm8, 64(%rax) vmovdqu %ymm0, 96(%rax) vmovdqu %ymm5, 128(%rax) vmovdqu %ymm1, 160(%rax) vmovdqu %ymm6, 192(%rax) vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm1 vmovdqu 288(%rax), %ymm3 vmovdqu 320(%rax), %ymm4 vmovdqu 352(%rax), %ymm5 vmovdqu 384(%rax), %ymm2 vmovdqu 416(%rax), %ymm6 vmovdqu 448(%rax), %ymm7 vmovdqu 480(%rax), %ymm8 vperm2i128 $32, %ymm2, %ymm1, %ymm0 vperm2i128 $49, %ymm2, %ymm1, %ymm1 vperm2i128 $32, %ymm6, %ymm3, %ymm2 vperm2i128 $49, %ymm6, %ymm3, %ymm3 vperm2i128 $32, %ymm7, %ymm4, %ymm6 vperm2i128 $49, %ymm7, %ymm4, %ymm7 vperm2i128 $32, %ymm8, %ymm5, %ymm9 vperm2i128 $49, %ymm8, %ymm5, %ymm10 vpunpcklqdq %ymm6, %ymm0, %ymm4 vpunpckhqdq %ymm6, %ymm0, %ymm5 vpunpcklqdq %ymm7, %ymm1, %ymm6 vpunpckhqdq %ymm7, %ymm1, %ymm7 vpunpcklqdq %ymm9, %ymm2, %ymm0 vpunpckhqdq %ymm9, %ymm2, %ymm2 vpunpcklqdq %ymm10, %ymm3, %ymm8 vpunpckhqdq %ymm10, %ymm3, %ymm3 vmovsldup %ymm0, %ymm1 vpblendd $-86, %ymm1, %ymm4, %ymm9 vpsrlq $32, %ymm4, %ymm1 vpblendd $-86, %ymm0, %ymm1, %ymm0 vmovsldup %ymm2, %ymm1 vpblendd $-86, %ymm1, %ymm5, %ymm1 vpsrlq $32, %ymm5, %ymm4 vpblendd $-86, %ymm2, %ymm4, %ymm2 vmovsldup %ymm8, %ymm4 vpblendd $-86, %ymm4, %ymm6, %ymm4 vpsrlq $32, %ymm6, %ymm5 vpblendd $-86, %ymm8, %ymm5, %ymm5 vmovsldup %ymm3, %ymm6 vpblendd $-86, %ymm6, %ymm7, %ymm6 vpsrlq $32, %ymm7, %ymm7 vpblendd $-86, %ymm3, %ymm7, %ymm3 vpslld $16, %ymm4, %ymm7 vpblendw $-86, %ymm7, %ymm9, %ymm7 vpsrld $16, %ymm9, %ymm8 vpblendw $-86, %ymm4, %ymm8, %ymm4 vpslld $16, %ymm5, %ymm8 vpblendw $-86, %ymm8, %ymm0, %ymm8 vpsrld $16, %ymm0, %ymm0 vpblendw $-86, %ymm5, %ymm0, %ymm0 vpslld $16, %ymm6, %ymm5 vpblendw $-86, %ymm5, %ymm1, %ymm5 vpsrld $16, %ymm1, %ymm1 vpblendw $-86, %ymm6, %ymm1, %ymm1 vpslld $16, %ymm3, %ymm6 vpblendw $-86, %ymm6, %ymm2, %ymm6 vpsrld $16, %ymm2, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm2 vmovdqu %ymm7, 256(%rax) vmovdqu %ymm4, 288(%rax) vmovdqu %ymm8, 320(%rax) vmovdqu %ymm0, 352(%rax) vmovdqu %ymm5, 384(%rax) vmovdqu %ymm1, 416(%rax) vmovdqu %ymm6, 448(%rax) vmovdqu %ymm2, 480(%rax) jmp *%rcx L_nttpack$1: vmovdqu (%rax), %ymm0 vmovdqu 32(%rax), %ymm1 vmovdqu 64(%rax), %ymm8 vmovdqu 96(%rax), %ymm9 vmovdqu 128(%rax), %ymm2 vmovdqu 160(%rax), %ymm3 vmovdqu 192(%rax), %ymm4 vmovdqu 224(%rax), %ymm5 vpslld $16, %ymm1, %ymm6 vpblendw $-86, %ymm6, %ymm0, %ymm6 vpsrld $16, %ymm0, %ymm0 vpblendw $-86, %ymm1, %ymm0, %ymm0 vpslld $16, %ymm9, %ymm1 vpblendw $-86, %ymm1, %ymm8, %ymm7 vpsrld $16, %ymm8, %ymm1 vpblendw $-86, %ymm9, %ymm1, %ymm1 vpslld $16, %ymm3, %ymm8 vpblendw $-86, %ymm8, %ymm2, %ymm8 vpsrld $16, %ymm2, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm2 vpslld $16, %ymm5, %ymm3 vpblendw $-86, %ymm3, %ymm4, %ymm3 vpsrld $16, %ymm4, %ymm4 vpblendw $-86, %ymm5, %ymm4, %ymm4 vmovsldup %ymm7, %ymm5 vpblendd $-86, %ymm5, %ymm6, %ymm5 vpsrlq $32, %ymm6, %ymm6 vpblendd $-86, %ymm7, %ymm6, %ymm6 vmovsldup %ymm3, %ymm7 vpblendd $-86, %ymm7, %ymm8, %ymm7 vpsrlq $32, %ymm8, %ymm8 vpblendd $-86, %ymm3, %ymm8, %ymm3 vmovsldup %ymm1, %ymm8 vpblendd $-86, %ymm8, %ymm0, %ymm8 vpsrlq $32, %ymm0, %ymm0 vpblendd $-86, %ymm1, %ymm0, %ymm0 vmovsldup %ymm4, %ymm1 vpblendd $-86, %ymm1, %ymm2, %ymm9 vpsrlq $32, %ymm2, %ymm1 vpblendd $-86, %ymm4, %ymm1, %ymm10 vpunpcklqdq %ymm7, %ymm5, %ymm1 vpunpckhqdq %ymm7, %ymm5, %ymm2 vpunpcklqdq %ymm9, %ymm8, %ymm5 vpunpckhqdq %ymm9, %ymm8, %ymm4 vpunpcklqdq %ymm3, %ymm6, %ymm7 vpunpckhqdq %ymm3, %ymm6, %ymm3 vpunpcklqdq %ymm10, %ymm0, %ymm6 vpunpckhqdq %ymm10, %ymm0, %ymm0 vperm2i128 $32, %ymm5, %ymm1, %ymm8 vperm2i128 $49, %ymm5, %ymm1, %ymm1 vperm2i128 $32, %ymm6, %ymm7, %ymm5 vperm2i128 $49, %ymm6, %ymm7, %ymm6 vperm2i128 $32, %ymm4, %ymm2, %ymm7 vperm2i128 $49, %ymm4, %ymm2, %ymm2 vperm2i128 $32, %ymm0, %ymm3, %ymm4 vperm2i128 $49, %ymm0, %ymm3, %ymm0 vmovdqu %ymm8, (%rax) vmovdqu %ymm5, 32(%rax) vmovdqu %ymm7, 64(%rax) vmovdqu %ymm4, 96(%rax) vmovdqu %ymm1, 128(%rax) vmovdqu %ymm6, 160(%rax) vmovdqu %ymm2, 192(%rax) vmovdqu %ymm0, 224(%rax) vmovdqu 256(%rax), %ymm0 vmovdqu 288(%rax), %ymm1 vmovdqu 320(%rax), %ymm8 vmovdqu 352(%rax), %ymm9 vmovdqu 384(%rax), %ymm2 vmovdqu 416(%rax), %ymm3 vmovdqu 448(%rax), %ymm4 vmovdqu 480(%rax), %ymm5 vpslld $16, %ymm1, %ymm6 vpblendw $-86, %ymm6, %ymm0, %ymm6 vpsrld $16, %ymm0, %ymm0 vpblendw $-86, %ymm1, %ymm0, %ymm0 vpslld $16, %ymm9, %ymm1 vpblendw $-86, %ymm1, %ymm8, %ymm7 vpsrld $16, %ymm8, %ymm1 vpblendw $-86, %ymm9, %ymm1, %ymm1 vpslld $16, %ymm3, %ymm8 vpblendw $-86, %ymm8, %ymm2, %ymm8 vpsrld $16, %ymm2, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm2 vpslld $16, %ymm5, %ymm3 vpblendw $-86, %ymm3, %ymm4, %ymm3 vpsrld $16, %ymm4, %ymm4 vpblendw $-86, %ymm5, %ymm4, %ymm4 vmovsldup %ymm7, %ymm5 vpblendd $-86, %ymm5, %ymm6, %ymm5 vpsrlq $32, %ymm6, %ymm6 vpblendd $-86, %ymm7, %ymm6, %ymm6 vmovsldup %ymm3, %ymm7 vpblendd $-86, %ymm7, %ymm8, %ymm7 vpsrlq $32, %ymm8, %ymm8 vpblendd $-86, %ymm3, %ymm8, %ymm3 vmovsldup %ymm1, %ymm8 vpblendd $-86, %ymm8, %ymm0, %ymm8 vpsrlq $32, %ymm0, %ymm0 vpblendd $-86, %ymm1, %ymm0, %ymm0 vmovsldup %ymm4, %ymm1 vpblendd $-86, %ymm1, %ymm2, %ymm9 vpsrlq $32, %ymm2, %ymm1 vpblendd $-86, %ymm4, %ymm1, %ymm10 vpunpcklqdq %ymm7, %ymm5, %ymm1 vpunpckhqdq %ymm7, %ymm5, %ymm2 vpunpcklqdq %ymm9, %ymm8, %ymm5 vpunpckhqdq %ymm9, %ymm8, %ymm4 vpunpcklqdq %ymm3, %ymm6, %ymm7 vpunpckhqdq %ymm3, %ymm6, %ymm3 vpunpcklqdq %ymm10, %ymm0, %ymm6 vpunpckhqdq %ymm10, %ymm0, %ymm0 vperm2i128 $32, %ymm5, %ymm1, %ymm8 vperm2i128 $49, %ymm5, %ymm1, %ymm1 vperm2i128 $32, %ymm6, %ymm7, %ymm5 vperm2i128 $49, %ymm6, %ymm7, %ymm6 vperm2i128 $32, %ymm4, %ymm2, %ymm7 vperm2i128 $49, %ymm4, %ymm2, %ymm2 vperm2i128 $32, %ymm0, %ymm3, %ymm4 vperm2i128 $49, %ymm0, %ymm3, %ymm0 vmovdqu %ymm8, 256(%rax) vmovdqu %ymm5, 288(%rax) vmovdqu %ymm7, 320(%rax) vmovdqu %ymm4, 352(%rax) vmovdqu %ymm1, 384(%rax) vmovdqu %ymm6, 416(%rax) vmovdqu %ymm2, 448(%rax) vmovdqu %ymm0, 480(%rax) jmp *%rcx L_shake256_absorb4x_33$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 32(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 64(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 96(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 128(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 160(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 192(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 224(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 256(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 288(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 320(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 352(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 384(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 416(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 448(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 480(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 512(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 544(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 576(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 608(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 640(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 672(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 704(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 736(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 768(%rax) movq (%rcx), %rbx xorq %rbx, (%rax) movq (%rdx), %rbx xorq %rbx, 8(%rax) movq (%rsi), %rbx xorq %rbx, 16(%rax) movq (%r11), %rbx xorq %rbx, 24(%rax) movq 8(%rcx), %rbx xorq %rbx, 32(%rax) movq 8(%rdx), %rbx xorq %rbx, 40(%rax) movq 8(%rsi), %rbx xorq %rbx, 48(%rax) movq 8(%r11), %rbx xorq %rbx, 56(%rax) movq 16(%rcx), %rbx xorq %rbx, 64(%rax) movq 16(%rdx), %rbx xorq %rbx, 72(%rax) movq 16(%rsi), %rbx xorq %rbx, 80(%rax) movq 16(%r11), %rbx xorq %rbx, 88(%rax) movq 24(%rcx), %rbx xorq %rbx, 96(%rax) movq 24(%rdx), %rbx xorq %rbx, 104(%rax) movq 24(%rsi), %rbx xorq %rbx, 112(%rax) movq 24(%r11), %rbx xorq %rbx, 120(%rax) movb 32(%rcx), %cl xorb %cl, 128(%rax) xorb $31, 129(%rax) movb 32(%rdx), %cl xorb %cl, 136(%rax) xorb $31, 137(%rax) movb 32(%rsi), %cl xorb %cl, 144(%rax) xorb $31, 145(%rax) movb 32(%r11), %cl xorb %cl, 152(%rax) xorb $31, 153(%rax) vmovdqu glob_data + 2080(%rip), %ymm0 vmovdqu 512(%rax), %ymm1 vpxor %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 512(%rax) jmp *(%rsp) L_shake128_absorb4x_34$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 32(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 64(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 96(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 128(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 160(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 192(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 224(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 256(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 288(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 320(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 352(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 384(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 416(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 448(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 480(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 512(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 544(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 576(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 608(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 640(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 672(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 704(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 736(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 768(%rax) movq (%rcx), %r8 xorq %r8, (%rax) movq (%rdx), %r8 xorq %r8, 8(%rax) movq (%rsi), %r8 xorq %r8, 16(%rax) movq (%rdi), %r8 xorq %r8, 24(%rax) movq 8(%rcx), %r8 xorq %r8, 32(%rax) movq 8(%rdx), %r8 xorq %r8, 40(%rax) movq 8(%rsi), %r8 xorq %r8, 48(%rax) movq 8(%rdi), %r8 xorq %r8, 56(%rax) movq 16(%rcx), %r8 xorq %r8, 64(%rax) movq 16(%rdx), %r8 xorq %r8, 72(%rax) movq 16(%rsi), %r8 xorq %r8, 80(%rax) movq 16(%rdi), %r8 xorq %r8, 88(%rax) movq 24(%rcx), %r8 xorq %r8, 96(%rax) movq 24(%rdx), %r8 xorq %r8, 104(%rax) movq 24(%rsi), %r8 xorq %r8, 112(%rax) movq 24(%rdi), %r8 xorq %r8, 120(%rax) movw 32(%rcx), %cx xorw %cx, 128(%rax) xorb $31, 130(%rax) movw 32(%rdx), %cx xorw %cx, 136(%rax) xorb $31, 138(%rax) movw 32(%rsi), %cx xorw %cx, 144(%rax) xorb $31, 146(%rax) movw 32(%rdi), %cx xorw %cx, 152(%rax) xorb $31, 154(%rax) vmovdqu glob_data + 2080(%rip), %ymm0 vmovdqu 640(%rax), %ymm1 vpxor %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 640(%rax) jmp *(%rsp) L_keccakf1600_4x_avx2$1: movq %rsp, %rcx leaq glob_data + 2176(%rip), %rdx vmovdqu glob_data + 2112(%rip), %ymm0 vmovdqu glob_data + 2144(%rip), %ymm1 movq $0, %rsi L_keccakf1600_4x_avx2$2: vmovdqu (%rdx,%rsi), %ymm2 vmovdqu (%rax), %ymm3 vmovdqu 32(%rax), %ymm4 vmovdqu 64(%rax), %ymm5 vmovdqu 96(%rax), %ymm6 vmovdqu 128(%rax), %ymm7 vpxor 160(%rax), %ymm3, %ymm3 vpxor 192(%rax), %ymm4, %ymm4 vpxor 224(%rax), %ymm5, %ymm5 vpxor 256(%rax), %ymm6, %ymm6 vpxor 288(%rax), %ymm7, %ymm7 vpxor 320(%rax), %ymm3, %ymm3 vpxor 352(%rax), %ymm4, %ymm4 vpxor 384(%rax), %ymm5, %ymm5 vpxor 416(%rax), %ymm6, %ymm6 vpxor 448(%rax), %ymm7, %ymm7 vpxor 480(%rax), %ymm3, %ymm3 vpxor 512(%rax), %ymm4, %ymm4 vpxor 544(%rax), %ymm5, %ymm8 vpxor 576(%rax), %ymm6, %ymm9 vpxor 608(%rax), %ymm7, %ymm10 vpxor 640(%rax), %ymm3, %ymm7 vpxor 672(%rax), %ymm4, %ymm5 vpxor 704(%rax), %ymm8, %ymm6 vpxor 736(%rax), %ymm9, %ymm8 vpxor 768(%rax), %ymm10, %ymm9 vmovdqu %ymm5, %ymm3 vpsllq $1, %ymm3, %ymm4 vpsrlq $63, %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm3 vpxor %ymm9, %ymm3, %ymm3 vmovdqu %ymm6, %ymm4 vpsllq $1, %ymm4, %ymm10 vpsrlq $63, %ymm4, %ymm4 vpor %ymm10, %ymm4, %ymm4 vpxor %ymm7, %ymm4, %ymm4 vmovdqu %ymm8, %ymm10 vpsllq $1, %ymm10, %ymm11 vpsrlq $63, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vpxor %ymm5, %ymm10, %ymm5 vpsllq $1, %ymm9, %ymm10 vpsrlq $63, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vpxor %ymm6, %ymm9, %ymm6 vpsllq $1, %ymm7, %ymm9 vpsrlq $63, %ymm7, %ymm7 vpor %ymm9, %ymm7, %ymm7 vpxor %ymm8, %ymm7, %ymm7 vmovdqu (%rax), %ymm8 vpxor %ymm3, %ymm8, %ymm8 vmovdqu 192(%rax), %ymm9 vpxor %ymm4, %ymm9, %ymm9 vpsllq $44, %ymm9, %ymm10 vpsrlq $20, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 384(%rax), %ymm10 vpxor %ymm5, %ymm10, %ymm10 vpsllq $43, %ymm10, %ymm11 vpsrlq $21, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vmovdqu 576(%rax), %ymm11 vpxor %ymm6, %ymm11, %ymm11 vpsllq $21, %ymm11, %ymm12 vpsrlq $43, %ymm11, %ymm11 vpor %ymm12, %ymm11, %ymm11 vmovdqu 768(%rax), %ymm12 vpxor %ymm7, %ymm12, %ymm12 vpsllq $14, %ymm12, %ymm13 vpsrlq $50, %ymm12, %ymm12 vpor %ymm13, %ymm12, %ymm12 vpandn %ymm10, %ymm9, %ymm13 vpxor %ymm8, %ymm13, %ymm13 vpxor %ymm2, %ymm13, %ymm2 vmovdqu %ymm2, (%rcx) vpandn %ymm11, %ymm10, %ymm2 vpxor %ymm9, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rcx) vpandn %ymm12, %ymm11, %ymm2 vpxor %ymm10, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rcx) vpandn %ymm8, %ymm12, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rcx) vpandn %ymm9, %ymm8, %ymm2 vpxor %ymm12, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rcx) vmovdqu 96(%rax), %ymm2 vpxor %ymm6, %ymm2, %ymm2 vpsllq $28, %ymm2, %ymm8 vpsrlq $36, %ymm2, %ymm2 vpor %ymm8, %ymm2, %ymm2 vmovdqu 288(%rax), %ymm8 vpxor %ymm7, %ymm8, %ymm8 vpsllq $20, %ymm8, %ymm9 vpsrlq $44, %ymm8, %ymm8 vpor %ymm9, %ymm8, %ymm8 vmovdqu 320(%rax), %ymm9 vpxor %ymm3, %ymm9, %ymm9 vpsllq $3, %ymm9, %ymm10 vpsrlq $61, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 512(%rax), %ymm10 vpxor %ymm4, %ymm10, %ymm10 vpsllq $45, %ymm10, %ymm11 vpsrlq $19, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vmovdqu 704(%rax), %ymm11 vpxor %ymm5, %ymm11, %ymm11 vpsllq $61, %ymm11, %ymm12 vpsrlq $3, %ymm11, %ymm11 vpor %ymm12, %ymm11, %ymm11 vpandn %ymm9, %ymm8, %ymm12 vpxor %ymm2, %ymm12, %ymm12 vmovdqu %ymm12, 160(%rcx) vpandn %ymm10, %ymm9, %ymm12 vpxor %ymm8, %ymm12, %ymm12 vmovdqu %ymm12, 192(%rcx) vpandn %ymm11, %ymm10, %ymm12 vpxor %ymm9, %ymm12, %ymm9 vmovdqu %ymm9, 224(%rcx) vpandn %ymm2, %ymm11, %ymm9 vpxor %ymm10, %ymm9, %ymm9 vmovdqu %ymm9, 256(%rcx) vpandn %ymm8, %ymm2, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rcx) vmovdqu 32(%rax), %ymm2 vpxor %ymm4, %ymm2, %ymm2 vpsllq $1, %ymm2, %ymm8 vpsrlq $63, %ymm2, %ymm2 vpor %ymm8, %ymm2, %ymm2 vmovdqu 224(%rax), %ymm8 vpxor %ymm5, %ymm8, %ymm8 vpsllq $6, %ymm8, %ymm9 vpsrlq $58, %ymm8, %ymm8 vpor %ymm9, %ymm8, %ymm8 vmovdqu 416(%rax), %ymm9 vpxor %ymm6, %ymm9, %ymm9 vpsllq $25, %ymm9, %ymm10 vpsrlq $39, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 608(%rax), %ymm10 vpxor %ymm7, %ymm10, %ymm10 vpshufb %ymm0, %ymm10, %ymm10 vmovdqu 640(%rax), %ymm11 vpxor %ymm3, %ymm11, %ymm11 vpsllq $18, %ymm11, %ymm12 vpsrlq $46, %ymm11, %ymm11 vpor %ymm12, %ymm11, %ymm11 vpandn %ymm9, %ymm8, %ymm12 vpxor %ymm2, %ymm12, %ymm12 vmovdqu %ymm12, 320(%rcx) vpandn %ymm10, %ymm9, %ymm12 vpxor %ymm8, %ymm12, %ymm12 vmovdqu %ymm12, 352(%rcx) vpandn %ymm11, %ymm10, %ymm12 vpxor %ymm9, %ymm12, %ymm9 vmovdqu %ymm9, 384(%rcx) vpandn %ymm2, %ymm11, %ymm9 vpxor %ymm10, %ymm9, %ymm9 vmovdqu %ymm9, 416(%rcx) vpandn %ymm8, %ymm2, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rcx) vmovdqu 128(%rax), %ymm2 vpxor %ymm7, %ymm2, %ymm2 vpsllq $27, %ymm2, %ymm8 vpsrlq $37, %ymm2, %ymm2 vpor %ymm8, %ymm2, %ymm2 vmovdqu 160(%rax), %ymm8 vpxor %ymm3, %ymm8, %ymm8 vpsllq $36, %ymm8, %ymm9 vpsrlq $28, %ymm8, %ymm8 vpor %ymm9, %ymm8, %ymm8 vmovdqu 352(%rax), %ymm9 vpxor %ymm4, %ymm9, %ymm9 vpsllq $10, %ymm9, %ymm10 vpsrlq $54, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 544(%rax), %ymm10 vpxor %ymm5, %ymm10, %ymm10 vpsllq $15, %ymm10, %ymm11 vpsrlq $49, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vmovdqu 736(%rax), %ymm11 vpxor %ymm6, %ymm11, %ymm11 vpshufb %ymm1, %ymm11, %ymm11 vpandn %ymm9, %ymm8, %ymm12 vpxor %ymm2, %ymm12, %ymm12 vmovdqu %ymm12, 480(%rcx) vpandn %ymm10, %ymm9, %ymm12 vpxor %ymm8, %ymm12, %ymm12 vmovdqu %ymm12, 512(%rcx) vpandn %ymm11, %ymm10, %ymm12 vpxor %ymm9, %ymm12, %ymm9 vmovdqu %ymm9, 544(%rcx) vpandn %ymm2, %ymm11, %ymm9 vpxor %ymm10, %ymm9, %ymm9 vmovdqu %ymm9, 576(%rcx) vpandn %ymm8, %ymm2, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 608(%rcx) vmovdqu 64(%rax), %ymm2 vpxor %ymm5, %ymm2, %ymm2 vpsllq $62, %ymm2, %ymm5 vpsrlq $2, %ymm2, %ymm2 vpor %ymm5, %ymm2, %ymm2 vmovdqu 256(%rax), %ymm5 vpxor %ymm6, %ymm5, %ymm5 vpsllq $55, %ymm5, %ymm6 vpsrlq $9, %ymm5, %ymm5 vpor %ymm6, %ymm5, %ymm5 vmovdqu 448(%rax), %ymm6 vpxor %ymm7, %ymm6, %ymm6 vpsllq $39, %ymm6, %ymm7 vpsrlq $25, %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm6 vmovdqu 480(%rax), %ymm7 vpxor %ymm3, %ymm7, %ymm3 vpsllq $41, %ymm3, %ymm7 vpsrlq $23, %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm3 vmovdqu 672(%rax), %ymm7 vpxor %ymm4, %ymm7, %ymm4 vpsllq $2, %ymm4, %ymm7 vpsrlq $62, %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpandn %ymm6, %ymm5, %ymm7 vpxor %ymm2, %ymm7, %ymm7 vmovdqu %ymm7, 640(%rcx) vpandn %ymm3, %ymm6, %ymm7 vpxor %ymm5, %ymm7, %ymm7 vmovdqu %ymm7, 672(%rcx) vpandn %ymm4, %ymm3, %ymm7 vpxor %ymm6, %ymm7, %ymm6 vmovdqu %ymm6, 704(%rcx) vpandn %ymm2, %ymm4, %ymm6 vpxor %ymm3, %ymm6, %ymm3 vmovdqu %ymm3, 736(%rcx) vpandn %ymm5, %ymm2, %ymm2 vpxor %ymm4, %ymm2, %ymm2 vmovdqu %ymm2, 768(%rcx) vmovdqu 32(%rdx,%rsi), %ymm2 vmovdqu (%rcx), %ymm3 vmovdqu 32(%rcx), %ymm4 vmovdqu 64(%rcx), %ymm5 vmovdqu 96(%rcx), %ymm6 vmovdqu 128(%rcx), %ymm7 vpxor 160(%rcx), %ymm3, %ymm3 vpxor 192(%rcx), %ymm4, %ymm4 vpxor 224(%rcx), %ymm5, %ymm5 vpxor 256(%rcx), %ymm6, %ymm6 vpxor 288(%rcx), %ymm7, %ymm7 vpxor 320(%rcx), %ymm3, %ymm3 vpxor 352(%rcx), %ymm4, %ymm4 vpxor 384(%rcx), %ymm5, %ymm5 vpxor 416(%rcx), %ymm6, %ymm6 vpxor 448(%rcx), %ymm7, %ymm7 vpxor 480(%rcx), %ymm3, %ymm3 vpxor 512(%rcx), %ymm4, %ymm4 vpxor 544(%rcx), %ymm5, %ymm8 vpxor 576(%rcx), %ymm6, %ymm9 vpxor 608(%rcx), %ymm7, %ymm10 vpxor 640(%rcx), %ymm3, %ymm7 vpxor 672(%rcx), %ymm4, %ymm5 vpxor 704(%rcx), %ymm8, %ymm6 vpxor 736(%rcx), %ymm9, %ymm8 vpxor 768(%rcx), %ymm10, %ymm9 vmovdqu %ymm5, %ymm3 vpsllq $1, %ymm3, %ymm4 vpsrlq $63, %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm3 vpxor %ymm9, %ymm3, %ymm3 vmovdqu %ymm6, %ymm4 vpsllq $1, %ymm4, %ymm10 vpsrlq $63, %ymm4, %ymm4 vpor %ymm10, %ymm4, %ymm4 vpxor %ymm7, %ymm4, %ymm4 vmovdqu %ymm8, %ymm10 vpsllq $1, %ymm10, %ymm11 vpsrlq $63, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vpxor %ymm5, %ymm10, %ymm5 vpsllq $1, %ymm9, %ymm10 vpsrlq $63, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vpxor %ymm6, %ymm9, %ymm6 vpsllq $1, %ymm7, %ymm9 vpsrlq $63, %ymm7, %ymm7 vpor %ymm9, %ymm7, %ymm7 vpxor %ymm8, %ymm7, %ymm7 vmovdqu (%rcx), %ymm8 vpxor %ymm3, %ymm8, %ymm8 vmovdqu 192(%rcx), %ymm9 vpxor %ymm4, %ymm9, %ymm9 vpsllq $44, %ymm9, %ymm10 vpsrlq $20, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 384(%rcx), %ymm10 vpxor %ymm5, %ymm10, %ymm10 vpsllq $43, %ymm10, %ymm11 vpsrlq $21, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vmovdqu 576(%rcx), %ymm11 vpxor %ymm6, %ymm11, %ymm11 vpsllq $21, %ymm11, %ymm12 vpsrlq $43, %ymm11, %ymm11 vpor %ymm12, %ymm11, %ymm11 vmovdqu 768(%rcx), %ymm12 vpxor %ymm7, %ymm12, %ymm12 vpsllq $14, %ymm12, %ymm13 vpsrlq $50, %ymm12, %ymm12 vpor %ymm13, %ymm12, %ymm12 vpandn %ymm10, %ymm9, %ymm13 vpxor %ymm8, %ymm13, %ymm13 vpxor %ymm2, %ymm13, %ymm2 vmovdqu %ymm2, (%rax) vpandn %ymm11, %ymm10, %ymm2 vpxor %ymm9, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vpandn %ymm12, %ymm11, %ymm2 vpxor %ymm10, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vpandn %ymm8, %ymm12, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vpandn %ymm9, %ymm8, %ymm2 vpxor %ymm12, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 96(%rcx), %ymm2 vpxor %ymm6, %ymm2, %ymm2 vpsllq $28, %ymm2, %ymm8 vpsrlq $36, %ymm2, %ymm2 vpor %ymm8, %ymm2, %ymm2 vmovdqu 288(%rcx), %ymm8 vpxor %ymm7, %ymm8, %ymm8 vpsllq $20, %ymm8, %ymm9 vpsrlq $44, %ymm8, %ymm8 vpor %ymm9, %ymm8, %ymm8 vmovdqu 320(%rcx), %ymm9 vpxor %ymm3, %ymm9, %ymm9 vpsllq $3, %ymm9, %ymm10 vpsrlq $61, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 512(%rcx), %ymm10 vpxor %ymm4, %ymm10, %ymm10 vpsllq $45, %ymm10, %ymm11 vpsrlq $19, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vmovdqu 704(%rcx), %ymm11 vpxor %ymm5, %ymm11, %ymm11 vpsllq $61, %ymm11, %ymm12 vpsrlq $3, %ymm11, %ymm11 vpor %ymm12, %ymm11, %ymm11 vpandn %ymm9, %ymm8, %ymm12 vpxor %ymm2, %ymm12, %ymm12 vmovdqu %ymm12, 160(%rax) vpandn %ymm10, %ymm9, %ymm12 vpxor %ymm8, %ymm12, %ymm12 vmovdqu %ymm12, 192(%rax) vpandn %ymm11, %ymm10, %ymm12 vpxor %ymm9, %ymm12, %ymm9 vmovdqu %ymm9, 224(%rax) vpandn %ymm2, %ymm11, %ymm9 vpxor %ymm10, %ymm9, %ymm9 vmovdqu %ymm9, 256(%rax) vpandn %ymm8, %ymm2, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 32(%rcx), %ymm2 vpxor %ymm4, %ymm2, %ymm2 vpsllq $1, %ymm2, %ymm8 vpsrlq $63, %ymm2, %ymm2 vpor %ymm8, %ymm2, %ymm2 vmovdqu 224(%rcx), %ymm8 vpxor %ymm5, %ymm8, %ymm8 vpsllq $6, %ymm8, %ymm9 vpsrlq $58, %ymm8, %ymm8 vpor %ymm9, %ymm8, %ymm8 vmovdqu 416(%rcx), %ymm9 vpxor %ymm6, %ymm9, %ymm9 vpsllq $25, %ymm9, %ymm10 vpsrlq $39, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 608(%rcx), %ymm10 vpxor %ymm7, %ymm10, %ymm10 vpshufb %ymm0, %ymm10, %ymm10 vmovdqu 640(%rcx), %ymm11 vpxor %ymm3, %ymm11, %ymm11 vpsllq $18, %ymm11, %ymm12 vpsrlq $46, %ymm11, %ymm11 vpor %ymm12, %ymm11, %ymm11 vpandn %ymm9, %ymm8, %ymm12 vpxor %ymm2, %ymm12, %ymm12 vmovdqu %ymm12, 320(%rax) vpandn %ymm10, %ymm9, %ymm12 vpxor %ymm8, %ymm12, %ymm12 vmovdqu %ymm12, 352(%rax) vpandn %ymm11, %ymm10, %ymm12 vpxor %ymm9, %ymm12, %ymm9 vmovdqu %ymm9, 384(%rax) vpandn %ymm2, %ymm11, %ymm9 vpxor %ymm10, %ymm9, %ymm9 vmovdqu %ymm9, 416(%rax) vpandn %ymm8, %ymm2, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 128(%rcx), %ymm2 vpxor %ymm7, %ymm2, %ymm2 vpsllq $27, %ymm2, %ymm8 vpsrlq $37, %ymm2, %ymm2 vpor %ymm8, %ymm2, %ymm2 vmovdqu 160(%rcx), %ymm8 vpxor %ymm3, %ymm8, %ymm8 vpsllq $36, %ymm8, %ymm9 vpsrlq $28, %ymm8, %ymm8 vpor %ymm9, %ymm8, %ymm8 vmovdqu 352(%rcx), %ymm9 vpxor %ymm4, %ymm9, %ymm9 vpsllq $10, %ymm9, %ymm10 vpsrlq $54, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 544(%rcx), %ymm10 vpxor %ymm5, %ymm10, %ymm10 vpsllq $15, %ymm10, %ymm11 vpsrlq $49, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vmovdqu 736(%rcx), %ymm11 vpxor %ymm6, %ymm11, %ymm11 vpshufb %ymm1, %ymm11, %ymm11 vpandn %ymm9, %ymm8, %ymm12 vpxor %ymm2, %ymm12, %ymm12 vmovdqu %ymm12, 480(%rax) vpandn %ymm10, %ymm9, %ymm12 vpxor %ymm8, %ymm12, %ymm12 vmovdqu %ymm12, 512(%rax) vpandn %ymm11, %ymm10, %ymm12 vpxor %ymm9, %ymm12, %ymm9 vmovdqu %ymm9, 544(%rax) vpandn %ymm2, %ymm11, %ymm9 vpxor %ymm10, %ymm9, %ymm9 vmovdqu %ymm9, 576(%rax) vpandn %ymm8, %ymm2, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 608(%rax) vmovdqu 64(%rcx), %ymm2 vpxor %ymm5, %ymm2, %ymm2 vpsllq $62, %ymm2, %ymm5 vpsrlq $2, %ymm2, %ymm2 vpor %ymm5, %ymm2, %ymm2 vmovdqu 256(%rcx), %ymm5 vpxor %ymm6, %ymm5, %ymm5 vpsllq $55, %ymm5, %ymm6 vpsrlq $9, %ymm5, %ymm5 vpor %ymm6, %ymm5, %ymm5 vmovdqu 448(%rcx), %ymm6 vpxor %ymm7, %ymm6, %ymm6 vpsllq $39, %ymm6, %ymm7 vpsrlq $25, %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm6 vmovdqu 480(%rcx), %ymm7 vpxor %ymm3, %ymm7, %ymm3 vpsllq $41, %ymm3, %ymm7 vpsrlq $23, %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm3 vmovdqu 672(%rcx), %ymm7 vpxor %ymm4, %ymm7, %ymm4 vpsllq $2, %ymm4, %ymm7 vpsrlq $62, %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpandn %ymm6, %ymm5, %ymm7 vpxor %ymm2, %ymm7, %ymm7 vmovdqu %ymm7, 640(%rax) vpandn %ymm3, %ymm6, %ymm7 vpxor %ymm5, %ymm7, %ymm7 vmovdqu %ymm7, 672(%rax) vpandn %ymm4, %ymm3, %ymm7 vpxor %ymm6, %ymm7, %ymm6 vmovdqu %ymm6, 704(%rax) vpandn %ymm2, %ymm4, %ymm6 vpxor %ymm3, %ymm6, %ymm3 vmovdqu %ymm3, 736(%rax) vpandn %ymm5, %ymm2, %ymm2 vpxor %ymm4, %ymm2, %ymm2 vmovdqu %ymm2, 768(%rax) addq $64, %rsi cmpq $768, %rsi jb L_keccakf1600_4x_avx2$2 jmp *800(%rsp) L_sha3_512_32$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vpbroadcastq (%rcx), %ymm6 movq 8(%rcx), %rdx movq glob_data + 6208(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 16(%rcx), %rdx movq glob_data + 6216(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 24(%rcx), %rcx movq glob_data + 6224(%rip), %rdx movq %rcx, (%rsp,%rdx,8) movq glob_data + 6232(%rip), %rcx shlq $3, %rcx movb $6, (%rsp,%rcx) movq glob_data + 6264(%rip), %rcx shlq $3, %rcx movq $71, %rdx andq $7, %rdx addq %rdx, %rcx xorb $-128, (%rsp,%rcx) vmovdqu 32(%rsp), %ymm0 vmovdqu 64(%rsp), %ymm1 vmovdqu 96(%rsp), %ymm2 vmovdqu 128(%rsp), %ymm3 vmovdqu 160(%rsp), %ymm4 vmovdqu 192(%rsp), %ymm5 leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L_sha3_512_32$2: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne L_sha3_512_32$2 vmovdqu %ymm6, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm1, 64(%rsp) vmovdqu %ymm2, 96(%rsp) vmovdqu %ymm3, 128(%rsp) vmovdqu %ymm4, 160(%rsp) vmovdqu %ymm5, 192(%rsp) movq glob_data + 6200(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) jmp *224(%rsp) L_sha3_512_64$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vpbroadcastq (%rcx), %ymm6 movq 8(%rcx), %rdx movq glob_data + 6208(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 16(%rcx), %rdx movq glob_data + 6216(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 24(%rcx), %rdx movq glob_data + 6224(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 32(%rcx), %rdx movq glob_data + 6232(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 40(%rcx), %rdx movq glob_data + 6240(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 48(%rcx), %rdx movq glob_data + 6248(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 56(%rcx), %rcx movq glob_data + 6256(%rip), %rdx movq %rcx, (%rsp,%rdx,8) movq glob_data + 6264(%rip), %rcx shlq $3, %rcx movb $6, (%rsp,%rcx) movq glob_data + 6264(%rip), %rcx shlq $3, %rcx movq $71, %rdx andq $7, %rdx addq %rdx, %rcx xorb $-128, (%rsp,%rcx) vmovdqu 32(%rsp), %ymm0 vmovdqu 64(%rsp), %ymm1 vmovdqu 96(%rsp), %ymm2 vmovdqu 128(%rsp), %ymm3 vmovdqu 160(%rsp), %ymm4 vmovdqu 192(%rsp), %ymm5 leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L_sha3_512_64$2: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne L_sha3_512_64$2 vmovdqu %ymm6, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm1, 64(%rsp) vmovdqu %ymm2, 96(%rsp) vmovdqu %ymm3, 128(%rsp) vmovdqu %ymm4, 160(%rsp) vmovdqu %ymm5, 192(%rsp) movq glob_data + 6200(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) jmp *224(%rsp) L_shake256_128_33$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vpbroadcastq (%rcx), %ymm6 movq 8(%rcx), %rdx movq glob_data + 6208(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 16(%rcx), %rdx movq glob_data + 6216(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 24(%rcx), %rdx movq glob_data + 6224(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movb 32(%rcx), %cl movq glob_data + 6232(%rip), %rdx shlq $3, %rdx movb %cl, (%rsp,%rdx) incq %rdx movb $31, (%rsp,%rdx) movq glob_data + 6328(%rip), %rcx shlq $3, %rcx movq $135, %rdx andq $7, %rdx addq %rdx, %rcx xorb $-128, (%rsp,%rcx) vmovdqu 32(%rsp), %ymm0 vmovdqu 64(%rsp), %ymm1 vmovdqu 96(%rsp), %ymm2 vmovdqu 128(%rsp), %ymm3 vmovdqu 160(%rsp), %ymm4 vmovdqu 192(%rsp), %ymm5 leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L_shake256_128_33$2: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne L_shake256_128_33$2 vmovdqu %ymm6, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm1, 64(%rsp) vmovdqu %ymm2, 96(%rsp) vmovdqu %ymm3, 128(%rsp) vmovdqu %ymm4, 160(%rsp) vmovdqu %ymm5, 192(%rsp) movq glob_data + 6200(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) jmp *224(%rsp) L_shake256_64$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vpbroadcastq (%rax), %ymm4 movq glob_data + 6208(%rip), %rsi movq 8(%rax), %rdi movq %rdi, (%rsp,%rsi,8) movq glob_data + 6216(%rip), %rsi movq 16(%rax), %rdi movq %rdi, (%rsp,%rsi,8) movq glob_data + 6224(%rip), %rsi movq 24(%rax), %rdi movq %rdi, (%rsp,%rsi,8) movq glob_data + 6232(%rip), %rsi movq 32(%rax), %rdi movq %rdi, (%rsp,%rsi,8) movq glob_data + 6240(%rip), %rsi movq 40(%rax), %rdi movq %rdi, (%rsp,%rsi,8) movq glob_data + 6248(%rip), %rsi movq 48(%rax), %rdi movq %rdi, (%rsp,%rsi,8) movq glob_data + 6256(%rip), %rsi movq 56(%rax), %rax movq %rax, (%rsp,%rsi,8) movq glob_data + 6264(%rip), %rax shlq $3, %rax movb $31, (%rsp,%rax) movq glob_data + 6328(%rip), %rax shlq $3, %rax movq $135, %rsi andq $7, %rsi addq %rsi, %rax xorb $-128, (%rsp,%rax) vmovdqu 32(%rsp), %ymm5 vmovdqu 64(%rsp), %ymm0 vmovdqu 96(%rsp), %ymm1 vmovdqu 128(%rsp), %ymm6 vmovdqu 160(%rsp), %ymm2 vmovdqu 192(%rsp), %ymm3 movq $136, %rsi leaq glob_data + 6200(%rip), %rax jmp L_shake256_64$7 L_shake256_64$8: leaq glob_data + 3328(%rip), %rdi movq $0, %r8 leaq glob_data + 3136(%rip), %r9 leaq glob_data + 2944(%rip), %r10 movq $24, %r11 L_shake256_64$11: vpshufd $78, %ymm0, %ymm8 vpxor %ymm1, %ymm2, %ymm7 vpxor %ymm3, %ymm6, %ymm9 vpxor %ymm5, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm0, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm4, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm0, %ymm0 vpxor %ymm11, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r9), %ymm0, %ymm7 vpsrlvq (%r10), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 64(%r9), %ymm1, %ymm7 vpsrlvq 64(%r10), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%r9), %ymm6, %ymm7 vpsrlvq 96(%r10), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 128(%r9), %ymm2, %ymm6 vpsrlvq 128(%r10), %ymm2, %ymm2 vpor %ymm6, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpermq $-115, %ymm0, %ymm6 vpermq $-115, %ymm1, %ymm7 vpsllvq 160(%r9), %ymm3, %ymm0 vpsrlvq 160(%r10), %ymm3, %ymm1 vpor %ymm0, %ymm1, %ymm8 vpxor %ymm9, %ymm5, %ymm0 vpermq $27, %ymm10, %ymm5 vpermq $114, %ymm2, %ymm9 vpsllvq 32(%r9), %ymm0, %ymm1 vpsrlvq 32(%r10), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm1 vpblendd $12, %ymm9, %ymm10, %ymm0 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm6, %ymm3 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm0, %ymm0 vpblendd $48, %ymm5, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm3, %ymm3 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm5, %ymm0, %ymm0 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm0, %ymm0 vpandn %ymm11, %ymm3, %ymm3 vpblendd $12, %ymm10, %ymm5, %ymm11 vpblendd $12, %ymm5, %ymm6, %ymm12 vpxor %ymm6, %ymm0, %ymm2 vpblendd $48, %ymm6, %ymm11, %ymm0 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm5, %ymm3, %ymm3 vpblendd $-64, %ymm7, %ymm0, %ymm0 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm0, %ymm0 vpxor %ymm9, %ymm0, %ymm12 vpermq $30, %ymm8, %ymm0 vpblendd $48, %ymm4, %ymm0, %ymm0 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm4, %ymm11, %ymm11 vpandn %ymm0, %ymm11, %ymm11 vpblendd $12, %ymm5, %ymm7, %ymm0 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm0, %ymm0 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm0, %ymm0 vpblendd $-64, %ymm5, %ymm13, %ymm13 vpandn %ymm13, %ymm0, %ymm0 vpxor %ymm10, %ymm0, %ymm0 vpermq $0, %ymm1, %ymm13 vpermq $27, %ymm2, %ymm1 vpermq $-115, %ymm3, %ymm2 vpermq $114, %ymm12, %ymm3 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm5, %ymm9 vpblendd $48, %ymm5, %ymm12, %ymm5 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm5, %ymm5 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm5, %ymm6 vpxor %ymm13, %ymm4, %ymm4 vpxor %ymm8, %ymm11, %ymm5 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rdi,%r8), %ymm4, %ymm4 addq $32, %r8 decq %r11 jne L_shake256_64$11 vmovdqu %ymm4, (%rsp) vmovdqu %ymm5, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm1, 96(%rsp) vmovdqu %ymm6, 128(%rsp) vmovdqu %ymm2, 160(%rsp) vmovdqu %ymm3, 192(%rsp) movq %rsi, %rdi shrq $3, %rdi movq $0, %r8 jmp L_shake256_64$9 L_shake256_64$10: movq (%rax,%r8,8), %r9 movq (%rsp,%r9,8), %r9 movq %r9, (%rdx,%r8,8) incq %r8 L_shake256_64$9: cmpq %rdi, %r8 jb L_shake256_64$10 addq %rsi, %rdx subq %rsi, %rcx L_shake256_64$7: cmpq %rsi, %rcx jnbe L_shake256_64$8 leaq glob_data + 3328(%rip), %rsi movq $0, %rdi leaq glob_data + 3136(%rip), %r8 leaq glob_data + 2944(%rip), %r9 movq $24, %r10 L_shake256_64$6: vpshufd $78, %ymm0, %ymm8 vpxor %ymm1, %ymm2, %ymm7 vpxor %ymm3, %ymm6, %ymm9 vpxor %ymm5, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm0, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm4, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm0, %ymm0 vpxor %ymm11, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r8), %ymm0, %ymm7 vpsrlvq (%r9), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 64(%r8), %ymm1, %ymm7 vpsrlvq 64(%r9), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%r8), %ymm6, %ymm7 vpsrlvq 96(%r9), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 128(%r8), %ymm2, %ymm6 vpsrlvq 128(%r9), %ymm2, %ymm2 vpor %ymm6, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpermq $-115, %ymm0, %ymm6 vpermq $-115, %ymm1, %ymm7 vpsllvq 160(%r8), %ymm3, %ymm0 vpsrlvq 160(%r9), %ymm3, %ymm1 vpor %ymm0, %ymm1, %ymm8 vpxor %ymm9, %ymm5, %ymm0 vpermq $27, %ymm10, %ymm5 vpermq $114, %ymm2, %ymm9 vpsllvq 32(%r8), %ymm0, %ymm1 vpsrlvq 32(%r9), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm1 vpblendd $12, %ymm9, %ymm10, %ymm0 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm6, %ymm3 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm0, %ymm0 vpblendd $48, %ymm5, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm3, %ymm3 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm5, %ymm0, %ymm0 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm0, %ymm0 vpandn %ymm11, %ymm3, %ymm3 vpblendd $12, %ymm10, %ymm5, %ymm11 vpblendd $12, %ymm5, %ymm6, %ymm12 vpxor %ymm6, %ymm0, %ymm2 vpblendd $48, %ymm6, %ymm11, %ymm0 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm5, %ymm3, %ymm3 vpblendd $-64, %ymm7, %ymm0, %ymm0 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm0, %ymm0 vpxor %ymm9, %ymm0, %ymm12 vpermq $30, %ymm8, %ymm0 vpblendd $48, %ymm4, %ymm0, %ymm0 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm4, %ymm11, %ymm11 vpandn %ymm0, %ymm11, %ymm11 vpblendd $12, %ymm5, %ymm7, %ymm0 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm0, %ymm0 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm0, %ymm0 vpblendd $-64, %ymm5, %ymm13, %ymm13 vpandn %ymm13, %ymm0, %ymm0 vpxor %ymm10, %ymm0, %ymm0 vpermq $0, %ymm1, %ymm13 vpermq $27, %ymm2, %ymm1 vpermq $-115, %ymm3, %ymm2 vpermq $114, %ymm12, %ymm3 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm5, %ymm9 vpblendd $48, %ymm5, %ymm12, %ymm5 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm5, %ymm5 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm5, %ymm6 vpxor %ymm13, %ymm4, %ymm4 vpxor %ymm8, %ymm11, %ymm5 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rsi,%rdi), %ymm4, %ymm4 addq $32, %rdi decq %r10 jne L_shake256_64$6 vmovdqu %ymm4, (%rsp) vmovdqu %ymm5, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm1, 96(%rsp) vmovdqu %ymm6, 128(%rsp) vmovdqu %ymm2, 160(%rsp) vmovdqu %ymm3, 192(%rsp) movq %rcx, %rsi shrq $3, %rsi movq $0, %rdi jmp L_shake256_64$4 L_shake256_64$5: movq (%rax,%rdi,8), %r8 movq (%rsp,%r8,8), %r8 movq %r8, (%rdx,%rdi,8) incq %rdi L_shake256_64$4: cmpq %rsi, %rdi jb L_shake256_64$5 movq (%rax,%rdi,8), %rax shlq $3, %rdi shlq $3, %rax jmp L_shake256_64$2 L_shake256_64$3: movb (%rsp,%rax), %sil movb %sil, (%rdx,%rdi) incq %rdi incq %rax L_shake256_64$2: cmpq %rcx, %rdi jb L_shake256_64$3 jmp *224(%rsp) L_sha3_256_32$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vpbroadcastq (%rcx), %ymm6 movq 8(%rcx), %rdx movq glob_data + 6208(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 16(%rcx), %rdx movq glob_data + 6216(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 24(%rcx), %rcx movq glob_data + 6224(%rip), %rdx movq %rcx, (%rsp,%rdx,8) movq glob_data + 6232(%rip), %rcx shlq $3, %rcx movb $6, (%rsp,%rcx) movq glob_data + 6328(%rip), %rcx shlq $3, %rcx movq $135, %rdx andq $7, %rdx addq %rdx, %rcx xorb $-128, (%rsp,%rcx) vmovdqu 32(%rsp), %ymm0 vmovdqu 64(%rsp), %ymm1 vmovdqu 96(%rsp), %ymm2 vmovdqu 128(%rsp), %ymm3 vmovdqu 160(%rsp), %ymm4 vmovdqu 192(%rsp), %ymm5 leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L_sha3_256_32$2: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne L_sha3_256_32$2 vmovdqu %ymm6, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm1, 64(%rsp) vmovdqu %ymm2, 96(%rsp) vmovdqu %ymm3, 128(%rsp) vmovdqu %ymm4, 160(%rsp) vmovdqu %ymm5, 192(%rsp) movq glob_data + 6200(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) jmp *224(%rsp) L_sha3_256$1: vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm5, %ymm5, %ymm5 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm2, %ymm2, %ymm2 movb $6, %cl movq $136, %rdx leaq glob_data + 6200(%rip), %rsi vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) jmp L_sha3_256$7 L_sha3_256$8: movq %rdx, %r9 shrq $3, %r9 movq $0, %r10 jmp L_sha3_256$10 L_sha3_256$11: movq (%r8,%r10,8), %r11 movq (%rsi,%r10,8), %rbx movq %r11, (%rsp,%rbx,8) incq %r10 L_sha3_256$10: cmpq %r9, %r10 jb L_sha3_256$11 movq (%rsp), %r9 movq %r9, 8(%rsp) movq %r9, 16(%rsp) movq %r9, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 addq %rdx, %r8 subq %rdx, %rdi leaq glob_data + 3328(%rip), %r9 movq $0, %r10 leaq glob_data + 3136(%rip), %r11 leaq glob_data + 2944(%rip), %rbx movq $24, %rbp L_sha3_256$9: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r11), %ymm4, %ymm7 vpsrlvq (%rbx), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%r11), %ymm0, %ymm7 vpsrlvq 64(%rbx), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%r11), %ymm5, %ymm7 vpsrlvq 96(%rbx), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%r11), %ymm1, %ymm5 vpsrlvq 128(%rbx), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%r11), %ymm2, %ymm0 vpsrlvq 160(%rbx), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%r11), %ymm0, %ymm1 vpsrlvq 32(%rbx), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%r9,%r10), %ymm6, %ymm6 addq $32, %r10 decq %rbp jne L_sha3_256$9 L_sha3_256$7: cmpq %rdx, %rdi jnb L_sha3_256$8 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) movq %rdi, %r9 shrq $3, %r9 movq $0, %r10 jmp L_sha3_256$5 L_sha3_256$6: movq (%r8,%r10,8), %r11 movq (%rsi,%r10,8), %rbx movq %r11, (%rsp,%rbx,8) incq %r10 L_sha3_256$5: cmpq %r9, %r10 jb L_sha3_256$6 movq (%rsi,%r10,8), %r9 shlq $3, %r9 shlq $3, %r10 jmp L_sha3_256$3 L_sha3_256$4: movb (%r8,%r10), %r11b movb %r11b, (%rsp,%r9) incq %r10 incq %r9 L_sha3_256$3: cmpq %rdi, %r10 jb L_sha3_256$4 movb %cl, (%rsp,%r9) movq %rdx, %rcx addq $-1, %rcx shrq $3, %rcx movq (%rsi,%rcx,8), %rcx shlq $3, %rcx addq $-1, %rdx andq $7, %rdx addq %rdx, %rcx xorb $-128, (%rsp,%rcx) movq (%rsp), %rcx movq %rcx, 8(%rsp) movq %rcx, 16(%rsp) movq %rcx, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm7 vpxor 64(%rsp), %ymm4, %ymm3 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm4 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L_sha3_256$2: vpshufd $78, %ymm3, %ymm5 vpxor %ymm0, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm9 vpxor %ymm7, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm10 vpermq $-109, %ymm10, %ymm8 vpxor %ymm3, %ymm5, %ymm5 vpermq $78, %ymm5, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm8, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm5, %ymm5 vpxor %ymm9, %ymm5, %ymm9 vpsrlq $63, %ymm9, %ymm5 vpaddq %ymm9, %ymm9, %ymm12 vpor %ymm5, %ymm12, %ymm12 vpxor %ymm11, %ymm3, %ymm3 vpxor %ymm11, %ymm6, %ymm5 vpblendd $-64, %ymm12, %ymm10, %ymm6 vpblendd $3, %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm6, %ymm9 vpsllvq (%rsi), %ymm3, %ymm6 vpsrlvq (%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rsi), %ymm0, %ymm6 vpsrlvq 64(%rdi), %ymm0, %ymm0 vpor %ymm6, %ymm0, %ymm0 vpxor %ymm9, %ymm4, %ymm4 vpsllvq 96(%rsi), %ymm4, %ymm6 vpsrlvq 96(%rdi), %ymm4, %ymm4 vpor %ymm6, %ymm4, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rsi), %ymm1, %ymm4 vpsrlvq 128(%rdi), %ymm1, %ymm1 vpor %ymm4, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm3, %ymm4 vpermq $-115, %ymm0, %ymm6 vpsllvq 160(%rsi), %ymm2, %ymm0 vpsrlvq 160(%rdi), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm7, %ymm0 vpermq $27, %ymm10, %ymm7 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rsi), %ymm0, %ymm1 vpsrlvq 32(%rdi), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm6, %ymm2 vpblendd $12, %ymm6, %ymm4, %ymm3 vpblendd $12, %ymm4, %ymm10, %ymm11 vpblendd $48, %ymm6, %ymm1, %ymm1 vpblendd $48, %ymm7, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm3, %ymm3 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm3, %ymm2 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm4, %ymm11 vpxor %ymm4, %ymm1, %ymm1 vpblendd $48, %ymm4, %ymm3, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm11 vpxor %ymm7, %ymm2, %ymm2 vpblendd $-64, %ymm6, %ymm3, %ymm3 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm3, %ymm3 vpxor %ymm9, %ymm3, %ymm12 vpermq $30, %ymm8, %ymm3 vpblendd $48, %ymm5, %ymm3, %ymm3 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm3, %ymm11, %ymm11 vpblendd $12, %ymm7, %ymm6, %ymm3 vpblendd $12, %ymm6, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm3, %ymm3 vpblendd $48, %ymm4, %ymm13, %ymm13 vpblendd $-64, %ymm4, %ymm3, %ymm3 vpblendd $-64, %ymm7, %ymm13, %ymm13 vpandn %ymm13, %ymm3, %ymm3 vpxor %ymm10, %ymm3, %ymm3 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm4, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm7, %ymm9 vpblendd $48, %ymm7, %ymm12, %ymm7 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm7, %ymm7 vpblendd $-64, %ymm4, %ymm9, %ymm4 vpandn %ymm4, %ymm7, %ymm4 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm7 vpxor %ymm6, %ymm4, %ymm4 vpxor (%rcx,%rdx), %ymm5, %ymm6 addq $32, %rdx decq %r8 jne L_sha3_256$2 vmovdqu %ymm6, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm3, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm4, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) leaq glob_data + 6200(%rip), %rcx movq (%rcx), %rdx movq (%rsp,%rdx,8), %rdx movq %rdx, (%rax) movq 8(%rcx), %rdx movq (%rsp,%rdx,8), %rdx movq %rdx, 8(%rax) movq 16(%rcx), %rdx movq (%rsp,%rdx,8), %rdx movq %rdx, 16(%rax) movq 24(%rcx), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) jmp *224(%rsp) L_keccak1600_avx2$1: vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm5, %ymm5, %ymm5 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm2, %ymm2, %ymm2 leaq glob_data + 6200(%rip), %rax vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) jmp L_keccak1600_avx2$16 L_keccak1600_avx2$17: movq %rcx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$19 L_keccak1600_avx2$20: movq (%rsi,%rbx,8), %rbp movq (%rax,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$19: cmpq %r11, %rbx jb L_keccak1600_avx2$20 movq (%rsp), %r11 movq %r11, 8(%rsp) movq %r11, 16(%rsp) movq %r11, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 addq %rcx, %rsi subq %rcx, %rdx leaq glob_data + 3328(%rip), %r11 movq $0, %rbx leaq glob_data + 3136(%rip), %rbp leaq glob_data + 2944(%rip), %r12 movq $24, %r13 L_keccak1600_avx2$18: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rbp), %ymm4, %ymm7 vpsrlvq (%r12), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rbp), %ymm0, %ymm7 vpsrlvq 64(%r12), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rbp), %ymm5, %ymm7 vpsrlvq 96(%r12), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rbp), %ymm1, %ymm5 vpsrlvq 128(%r12), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rbp), %ymm2, %ymm0 vpsrlvq 160(%r12), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rbp), %ymm0, %ymm1 vpsrlvq 32(%r12), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%r11,%rbx), %ymm6, %ymm6 addq $32, %rbx decq %r13 jne L_keccak1600_avx2$18 L_keccak1600_avx2$16: cmpq %rcx, %rdx jnb L_keccak1600_avx2$17 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) movq %rdx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$14 L_keccak1600_avx2$15: movq (%rsi,%rbx,8), %rbp movq (%rax,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$14: cmpq %r11, %rbx jb L_keccak1600_avx2$15 movq (%rax,%rbx,8), %r11 shlq $3, %r11 shlq $3, %rbx jmp L_keccak1600_avx2$12 L_keccak1600_avx2$13: movb (%rsi,%rbx), %bpl movb %bpl, (%rsp,%r11) incq %rbx incq %r11 L_keccak1600_avx2$12: cmpq %rdx, %rbx jb L_keccak1600_avx2$13 movb %dil, (%rsp,%r11) movq %rcx, %rdx addq $-1, %rdx shrq $3, %rdx movq (%rax,%rdx,8), %rax shlq $3, %rax movq %rcx, %rdx addq $-1, %rdx andq $7, %rdx addq %rdx, %rax xorb $-128, (%rsp,%rax) movq (%rsp), %rax movq %rax, 8(%rsp) movq %rax, 16(%rsp) movq %rax, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 leaq glob_data + 6200(%rip), %rax jmp L_keccak1600_avx2$7 L_keccak1600_avx2$8: leaq glob_data + 3328(%rip), %rdx movq $0, %rsi leaq glob_data + 3136(%rip), %rdi leaq glob_data + 2944(%rip), %r11 movq $24, %rbx L_keccak1600_avx2$11: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rdi), %ymm4, %ymm7 vpsrlvq (%r11), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rdi), %ymm0, %ymm7 vpsrlvq 64(%r11), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rdi), %ymm5, %ymm7 vpsrlvq 96(%r11), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rdi), %ymm1, %ymm5 vpsrlvq 128(%r11), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rdi), %ymm2, %ymm0 vpsrlvq 160(%r11), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rdi), %ymm0, %ymm1 vpsrlvq 32(%r11), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rdx,%rsi), %ymm6, %ymm6 addq $32, %rsi decq %rbx jne L_keccak1600_avx2$11 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_avx2$9 L_keccak1600_avx2$10: movq (%rax,%rsi,8), %rdi movq (%rsp,%rdi,8), %rdi movq %rdi, (%r9,%rsi,8) incq %rsi L_keccak1600_avx2$9: cmpq %rdx, %rsi jb L_keccak1600_avx2$10 addq %rcx, %r9 subq %rcx, %r8 L_keccak1600_avx2$7: cmpq %rcx, %r8 jnbe L_keccak1600_avx2$8 leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r11 L_keccak1600_avx2$6: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm4, %ymm7 vpsrlvq (%rdi), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rsi), %ymm0, %ymm7 vpsrlvq 64(%rdi), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rsi), %ymm5, %ymm7 vpsrlvq 96(%rdi), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rsi), %ymm1, %ymm5 vpsrlvq 128(%rdi), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rsi), %ymm2, %ymm0 vpsrlvq 160(%rdi), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rsi), %ymm0, %ymm1 vpsrlvq 32(%rdi), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r11 jne L_keccak1600_avx2$6 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %r8, %rcx shrq $3, %rcx movq $0, %rdx jmp L_keccak1600_avx2$4 L_keccak1600_avx2$5: movq (%rax,%rdx,8), %rsi movq (%rsp,%rsi,8), %rsi movq %rsi, (%r9,%rdx,8) incq %rdx L_keccak1600_avx2$4: cmpq %rcx, %rdx jb L_keccak1600_avx2$5 movq (%rax,%rdx,8), %rax shlq $3, %rdx shlq $3, %rax jmp L_keccak1600_avx2$2 L_keccak1600_avx2$3: movb (%rsp,%rax), %cl movb %cl, (%r9,%rdx) incq %rdx incq %rax L_keccak1600_avx2$2: cmpq %r8, %rdx jb L_keccak1600_avx2$3 jmp *%r10 .data .p2align 5 _glob_data: glob_data: .byte 0 .byte 1 .byte 1 .byte 2 .byte 3 .byte 4 .byte 4 .byte 5 .byte 6 .byte 7 .byte 7 .byte 8 .byte 9 .byte 10 .byte 10 .byte 11 .byte 4 .byte 5 .byte 5 .byte 6 .byte 7 .byte 8 .byte 8 .byte 9 .byte 10 .byte 11 .byte 11 .byte 12 .byte 13 .byte 14 .byte 14 .byte 15 .byte 0 .byte 1 .byte 2 .byte 3 .byte 4 .byte 8 .byte 9 .byte 10 .byte 11 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 9 .byte 10 .byte 11 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 1 .byte 2 .byte 3 .byte 4 .byte 8 .byte 0 .byte 1 .byte 1 .byte 2 .byte 2 .byte 3 .byte 3 .byte 4 .byte 5 .byte 6 .byte 6 .byte 7 .byte 7 .byte 8 .byte 8 .byte 9 .byte 2 .byte 3 .byte 3 .byte 4 .byte 4 .byte 5 .byte 5 .byte 6 .byte 7 .byte 8 .byte 8 .byte 9 .byte 9 .byte 10 .byte 10 .byte 11 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 1 .byte 1 .byte 1 .byte 2 .byte 2 .byte 2 .byte 2 .byte 3 .byte 3 .byte 3 .byte 3 .byte 4 .byte 4 .byte 4 .byte 4 .byte 5 .byte 5 .byte 5 .byte 5 .byte 6 .byte 6 .byte 6 .byte 6 .byte 7 .byte 7 .byte 7 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte -91 .byte -91 .byte -76 .byte -31 .byte 34 .byte 79 .byte 52 .byte 93 .byte 35 .byte 68 .byte 86 .byte -91 .byte -25 .byte 78 .byte -6 .byte 83 .byte 123 .byte -57 .byte 37 .byte 43 .byte 55 .byte 58 .byte -120 .byte 24 .byte -127 .byte 126 .byte 5 .byte -60 .byte -97 .byte -9 .byte -72 .byte -80 .byte -91 .byte 6 .byte -76 .byte 5 .byte 34 .byte 9 .byte 52 .byte 1 .byte 35 .byte 11 .byte 86 .byte 3 .byte -25 .byte 9 .byte -6 .byte 5 .byte 123 .byte 6 .byte 37 .byte 12 .byte 55 .byte 5 .byte -120 .byte 0 .byte -127 .byte 11 .byte 5 .byte 5 .byte -97 .byte 10 .byte -72 .byte 8 .byte 15 .byte 68 .byte 67 .byte -94 .byte 29 .byte -112 .byte 108 .byte -124 .byte 102 .byte -43 .byte -26 .byte 87 .byte -2 .byte 30 .byte -95 .byte -41 .byte -93 .byte -67 .byte 106 .byte -95 .byte 63 .byte -43 .byte -65 .byte 81 .byte -71 .byte -96 .byte -41 .byte 28 .byte -90 .byte -100 .byte -48 .byte 121 .byte 15 .byte 7 .byte 67 .byte 9 .byte 29 .byte 9 .byte 108 .byte 0 .byte 102 .byte 3 .byte -26 .byte 5 .byte -2 .byte 4 .byte -95 .byte 4 .byte -93 .byte 4 .byte 106 .byte 3 .byte 63 .byte 8 .byte -65 .byte 4 .byte -71 .byte 5 .byte -41 .byte 7 .byte -90 .byte 10 .byte -48 .byte 9 .byte -5 .byte 69 .byte 92 .byte 94 .byte 41 .byte -17 .byte 65 .byte -66 .byte -43 .byte 49 .byte -28 .byte 113 .byte 64 .byte -55 .byte -114 .byte -53 .byte -73 .byte -72 .byte -9 .byte 117 .byte -115 .byte -36 .byte -106 .byte 110 .byte -61 .byte 34 .byte 15 .byte 62 .byte 90 .byte 110 .byte 85 .byte -78 .byte -5 .byte 4 .byte 92 .byte 10 .byte 41 .byte 4 .byte 65 .byte 11 .byte -43 .byte 2 .byte -28 .byte 5 .byte 64 .byte 9 .byte -114 .byte 1 .byte -73 .byte 3 .byte -9 .byte 0 .byte -115 .byte 5 .byte -106 .byte 12 .byte -61 .byte 9 .byte 15 .byte 1 .byte 90 .byte 0 .byte 85 .byte 3 .byte 35 .byte 63 .byte 35 .byte 63 .byte -51 .byte -105 .byte -51 .byte -105 .byte 102 .byte -35 .byte 102 .byte -35 .byte 6 .byte -72 .byte 6 .byte -72 .byte -95 .byte -35 .byte -95 .byte -35 .byte 37 .byte 41 .byte 37 .byte 41 .byte 8 .byte -95 .byte 8 .byte -95 .byte -87 .byte 109 .byte -87 .byte 109 .byte 35 .byte 6 .byte 35 .byte 6 .byte -51 .byte 0 .byte -51 .byte 0 .byte 102 .byte 11 .byte 102 .byte 11 .byte 6 .byte 6 .byte 6 .byte 6 .byte -95 .byte 10 .byte -95 .byte 10 .byte 37 .byte 10 .byte 37 .byte 10 .byte 8 .byte 9 .byte 8 .byte 9 .byte -87 .byte 2 .byte -87 .byte 2 .byte 69 .byte -122 .byte 69 .byte -122 .byte 69 .byte -122 .byte 69 .byte -122 .byte -62 .byte 43 .byte -62 .byte 43 .byte -62 .byte 43 .byte -62 .byte 43 .byte -78 .byte -6 .byte -78 .byte -6 .byte -78 .byte -6 .byte -78 .byte -6 .byte 63 .byte -42 .byte 63 .byte -42 .byte 63 .byte -42 .byte 63 .byte -42 .byte 69 .byte 7 .byte 69 .byte 7 .byte 69 .byte 7 .byte 69 .byte 7 .byte -62 .byte 5 .byte -62 .byte 5 .byte -62 .byte 5 .byte -62 .byte 5 .byte -78 .byte 4 .byte -78 .byte 4 .byte -78 .byte 4 .byte -78 .byte 4 .byte 63 .byte 9 .byte 63 .byte 9 .byte 63 .byte 9 .byte 63 .byte 9 .byte 55 .byte 65 .byte 55 .byte 65 .byte 55 .byte 65 .byte 55 .byte 65 .byte 55 .byte 65 .byte 55 .byte 65 .byte 55 .byte 65 .byte 55 .byte 65 .byte -30 .byte -111 .byte -30 .byte -111 .byte -30 .byte -111 .byte -30 .byte -111 .byte -30 .byte -111 .byte -30 .byte -111 .byte -30 .byte -111 .byte -30 .byte -111 .byte 55 .byte 12 .byte 55 .byte 12 .byte 55 .byte 12 .byte 55 .byte 12 .byte 55 .byte 12 .byte 55 .byte 12 .byte 55 .byte 12 .byte 55 .byte 12 .byte -30 .byte 11 .byte -30 .byte 11 .byte -30 .byte 11 .byte -30 .byte 11 .byte -30 .byte 11 .byte -30 .byte 11 .byte -30 .byte 11 .byte -30 .byte 11 .byte -19 .byte -4 .byte -19 .byte -4 .byte -19 .byte 5 .byte -19 .byte 5 .byte 75 .byte 49 .byte -72 .byte -77 .byte -92 .byte -73 .byte 125 .byte -79 .byte -94 .byte -50 .byte 54 .byte 73 .byte -109 .byte -119 .byte -9 .byte 126 .byte -116 .byte -22 .byte -52 .byte -91 .byte -21 .byte 17 .byte -74 .byte -52 .byte -104 .byte 84 .byte -102 .byte 55 .byte -74 .byte -53 .byte 83 .byte -44 .byte 75 .byte 0 .byte -72 .byte 11 .byte -92 .byte 11 .byte 125 .byte 10 .byte -94 .byte 8 .byte 54 .byte 7 .byte -109 .byte 0 .byte -9 .byte 9 .byte -116 .byte 6 .byte -52 .byte 1 .byte -21 .byte 0 .byte -74 .byte 10 .byte -104 .byte 12 .byte -102 .byte 9 .byte -74 .byte 9 .byte 83 .byte 11 .byte -100 .byte 20 .byte 95 .byte 56 .byte 104 .byte -69 .byte 54 .byte 72 .byte 90 .byte 112 .byte 9 .byte -114 .byte 122 .byte -42 .byte -10 .byte -126 .byte -37 .byte -25 .byte 35 .byte 58 .byte 80 .byte -4 .byte 91 .byte 108 .byte -13 .byte -81 .byte -29 .byte 125 .byte -42 .byte 44 .byte 79 .byte 1 .byte -100 .byte 0 .byte 95 .byte 11 .byte 104 .byte 3 .byte 54 .byte 6 .byte 90 .byte 2 .byte 9 .byte 3 .byte 122 .byte 8 .byte -10 .byte 0 .byte -37 .byte 6 .byte 35 .byte 1 .byte 80 .byte 12 .byte 91 .byte 11 .byte -13 .byte 6 .byte -29 .byte 4 .byte -42 .byte 10 .byte 79 .byte 4 .byte 68 .byte -109 .byte -125 .byte 101 .byte -118 .byte 2 .byte 82 .byte -36 .byte -102 .byte 48 .byte 64 .byte -63 .byte 8 .byte -104 .byte -3 .byte 49 .byte 8 .byte -98 .byte 26 .byte -81 .byte 46 .byte -79 .byte 13 .byte 92 .byte 10 .byte -121 .byte 40 .byte -6 .byte 117 .byte 25 .byte 58 .byte 22 .byte 68 .byte 7 .byte -125 .byte 12 .byte -118 .byte 4 .byte 82 .byte 6 .byte -102 .byte 2 .byte 64 .byte 1 .byte 8 .byte 0 .byte -3 .byte 10 .byte 8 .byte 6 .byte 26 .byte 1 .byte 46 .byte 7 .byte 13 .byte 5 .byte 10 .byte 9 .byte 40 .byte 2 .byte 117 .byte 10 .byte 58 .byte 8 .byte -126 .byte 102 .byte -126 .byte 102 .byte 66 .byte -84 .byte 66 .byte -84 .byte 79 .byte 4 .byte 79 .byte 4 .byte 61 .byte -22 .byte 61 .byte -22 .byte -126 .byte 113 .byte -126 .byte 113 .byte -7 .byte 102 .byte -7 .byte 102 .byte 45 .byte -68 .byte 45 .byte -68 .byte -60 .byte 22 .byte -60 .byte 22 .byte -126 .byte 0 .byte -126 .byte 0 .byte 66 .byte 6 .byte 66 .byte 6 .byte 79 .byte 7 .byte 79 .byte 7 .byte 61 .byte 3 .byte 61 .byte 3 .byte -126 .byte 11 .byte -126 .byte 11 .byte -7 .byte 11 .byte -7 .byte 11 .byte 45 .byte 5 .byte 45 .byte 5 .byte -60 .byte 10 .byte -60 .byte 10 .byte 75 .byte 61 .byte 75 .byte 61 .byte 75 .byte 61 .byte 75 .byte 61 .byte -40 .byte 14 .byte -40 .byte 14 .byte -40 .byte 14 .byte -40 .byte 14 .byte -109 .byte -109 .byte -109 .byte -109 .byte -109 .byte -109 .byte -109 .byte -109 .byte -85 .byte 81 .byte -85 .byte 81 .byte -85 .byte 81 .byte -85 .byte 81 .byte 75 .byte 12 .byte 75 .byte 12 .byte 75 .byte 12 .byte 75 .byte 12 .byte -40 .byte 6 .byte -40 .byte 6 .byte -40 .byte 6 .byte -40 .byte 6 .byte -109 .byte 10 .byte -109 .byte 10 .byte -109 .byte 10 .byte -109 .byte 10 .byte -85 .byte 0 .byte -85 .byte 0 .byte -85 .byte 0 .byte -85 .byte 0 .byte 115 .byte 48 .byte 115 .byte 48 .byte 115 .byte 48 .byte 115 .byte 48 .byte 115 .byte 48 .byte 115 .byte 48 .byte 115 .byte 48 .byte 115 .byte 48 .byte 44 .byte -53 .byte 44 .byte -53 .byte 44 .byte -53 .byte 44 .byte -53 .byte 44 .byte -53 .byte 44 .byte -53 .byte 44 .byte -53 .byte 44 .byte -53 .byte 115 .byte 7 .byte 115 .byte 7 .byte 115 .byte 7 .byte 115 .byte 7 .byte 115 .byte 7 .byte 115 .byte 7 .byte 115 .byte 7 .byte 115 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 103 .byte -58 .byte 103 .byte -58 .byte 103 .byte 1 .byte 103 .byte 1 .byte -116 .byte -21 .byte -116 .byte -21 .byte -116 .byte 7 .byte -116 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 11 .byte 123 .byte 11 .byte 123 .byte 11 .byte 10 .byte 11 .byte 10 .byte -102 .byte 57 .byte -102 .byte 57 .byte -102 .byte 11 .byte -102 .byte 11 .byte -43 .byte 52 .byte -43 .byte 52 .byte -43 .byte 52 .byte -43 .byte 52 .byte -43 .byte 52 .byte -43 .byte 52 .byte -43 .byte 52 .byte -43 .byte 52 .byte -114 .byte -49 .byte -114 .byte -49 .byte -114 .byte -49 .byte -114 .byte -49 .byte -114 .byte -49 .byte -114 .byte -49 .byte -114 .byte -49 .byte -114 .byte -49 .byte -43 .byte 5 .byte -43 .byte 5 .byte -43 .byte 5 .byte -43 .byte 5 .byte -43 .byte 5 .byte -43 .byte 5 .byte -43 .byte 5 .byte -43 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte 86 .byte -82 .byte 86 .byte -82 .byte 86 .byte -82 .byte 86 .byte -82 .byte 110 .byte 108 .byte 110 .byte 108 .byte 110 .byte 108 .byte 110 .byte 108 .byte 41 .byte -15 .byte 41 .byte -15 .byte 41 .byte -15 .byte 41 .byte -15 .byte -74 .byte -62 .byte -74 .byte -62 .byte -74 .byte -62 .byte -74 .byte -62 .byte 86 .byte 12 .byte 86 .byte 12 .byte 86 .byte 12 .byte 86 .byte 12 .byte 110 .byte 2 .byte 110 .byte 2 .byte 110 .byte 2 .byte 110 .byte 2 .byte 41 .byte 6 .byte 41 .byte 6 .byte 41 .byte 6 .byte 41 .byte 6 .byte -74 .byte 0 .byte -74 .byte 0 .byte -74 .byte 0 .byte -74 .byte 0 .byte 61 .byte -23 .byte 61 .byte -23 .byte -44 .byte 67 .byte -44 .byte 67 .byte 8 .byte -103 .byte 8 .byte -103 .byte 127 .byte -114 .byte 127 .byte -114 .byte -60 .byte 21 .byte -60 .byte 21 .byte -78 .byte -5 .byte -78 .byte -5 .byte -65 .byte 83 .byte -65 .byte 83 .byte 127 .byte -103 .byte 127 .byte -103 .byte 61 .byte 2 .byte 61 .byte 2 .byte -44 .byte 7 .byte -44 .byte 7 .byte 8 .byte 1 .byte 8 .byte 1 .byte 127 .byte 1 .byte 127 .byte 1 .byte -60 .byte 9 .byte -60 .byte 9 .byte -78 .byte 5 .byte -78 .byte 5 .byte -65 .byte 6 .byte -65 .byte 6 .byte 127 .byte 12 .byte 127 .byte 12 .byte -57 .byte -23 .byte -116 .byte -26 .byte -39 .byte 5 .byte -9 .byte 120 .byte -12 .byte -93 .byte -45 .byte 78 .byte -25 .byte 80 .byte -7 .byte 97 .byte 4 .byte -50 .byte -7 .byte 103 .byte -63 .byte 62 .byte 103 .byte -49 .byte -81 .byte 35 .byte 119 .byte -3 .byte 126 .byte -102 .byte -67 .byte 108 .byte -57 .byte 4 .byte -116 .byte 2 .byte -39 .byte 10 .byte -9 .byte 3 .byte -12 .byte 7 .byte -45 .byte 5 .byte -25 .byte 11 .byte -7 .byte 6 .byte 4 .byte 2 .byte -7 .byte 12 .byte -63 .byte 11 .byte 103 .byte 10 .byte -81 .byte 6 .byte 119 .byte 8 .byte 126 .byte 0 .byte -67 .byte 5 .byte -78 .byte -2 .byte 43 .byte -45 .byte 30 .byte -126 .byte 14 .byte 80 .byte -90 .byte -109 .byte -79 .byte 3 .byte -34 .byte -59 .byte 38 .byte 24 .byte 11 .byte 125 .byte -121 .byte 41 .byte -8 .byte 113 .byte -89 .byte -113 .byte -53 .byte -73 .byte -103 .byte 68 .byte -94 .byte -57 .byte 101 .byte -21 .byte -78 .byte 8 .byte 43 .byte 2 .byte 30 .byte 8 .byte 14 .byte 6 .byte -90 .byte 1 .byte -79 .byte 0 .byte -34 .byte 11 .byte 38 .byte 6 .byte 11 .byte 12 .byte -121 .byte 4 .byte -8 .byte 9 .byte -89 .byte 10 .byte -53 .byte 6 .byte -103 .byte 9 .byte -94 .byte 1 .byte 101 .byte 12 .byte -82 .byte 43 .byte 75 .byte 52 .byte 103 .byte -56 .byte 105 .byte -85 .byte 75 .byte 51 .byte 22 .byte -18 .byte 53 .byte 90 .byte 117 .byte 21 .byte 10 .byte -127 .byte 110 .byte 118 .byte -53 .byte -74 .byte 95 .byte 49 .byte -124 .byte 78 .byte 93 .byte 72 .byte 73 .byte 76 .byte -74 .byte -50 .byte -82 .byte 1 .byte 75 .byte 3 .byte 103 .byte 3 .byte 105 .byte 0 .byte 75 .byte 2 .byte 22 .byte 12 .byte 53 .byte 11 .byte 117 .byte 6 .byte 10 .byte 3 .byte 110 .byte 12 .byte -53 .byte 5 .byte 95 .byte 4 .byte -124 .byte 2 .byte 93 .byte 1 .byte 73 .byte 1 .byte -74 .byte 12 .byte 20 .byte 3 .byte 20 .byte 3 .byte 20 .byte 7 .byte 20 .byte 7 .byte 31 .byte 110 .byte 31 .byte 110 .byte 31 .byte 110 .byte 31 .byte 110 .byte 31 .byte 110 .byte 31 .byte 110 .byte 31 .byte 110 .byte 31 .byte 110 .byte -54 .byte -66 .byte -54 .byte -66 .byte -54 .byte -66 .byte -54 .byte -66 .byte -54 .byte -66 .byte -54 .byte -66 .byte -54 .byte -66 .byte -54 .byte -66 .byte 31 .byte 1 .byte 31 .byte 1 .byte 31 .byte 1 .byte 31 .byte 1 .byte 31 .byte 1 .byte 31 .byte 1 .byte 31 .byte 1 .byte 31 .byte 1 .byte -54 .byte 0 .byte -54 .byte 0 .byte -54 .byte 0 .byte -54 .byte 0 .byte -54 .byte 0 .byte -54 .byte 0 .byte -54 .byte 0 .byte -54 .byte 0 .byte -62 .byte 41 .byte -62 .byte 41 .byte -62 .byte 41 .byte -62 .byte 41 .byte 79 .byte 5 .byte 79 .byte 5 .byte 79 .byte 5 .byte 79 .byte 5 .byte 63 .byte -44 .byte 63 .byte -44 .byte 63 .byte -44 .byte 63 .byte -44 .byte -68 .byte 121 .byte -68 .byte 121 .byte -68 .byte 121 .byte -68 .byte 121 .byte -62 .byte 3 .byte -62 .byte 3 .byte -62 .byte 3 .byte -62 .byte 3 .byte 79 .byte 8 .byte 79 .byte 8 .byte 79 .byte 8 .byte 79 .byte 8 .byte 63 .byte 7 .byte 63 .byte 7 .byte 63 .byte 7 .byte 63 .byte 7 .byte -68 .byte 5 .byte -68 .byte 5 .byte -68 .byte 5 .byte -68 .byte 5 .byte 88 .byte -110 .byte 88 .byte -110 .byte -7 .byte 94 .byte -7 .byte 94 .byte -36 .byte -42 .byte -36 .byte -42 .byte 96 .byte 34 .byte 96 .byte 34 .byte -5 .byte 71 .byte -5 .byte 71 .byte -101 .byte 34 .byte -101 .byte 34 .byte 52 .byte 104 .byte 52 .byte 104 .byte -34 .byte -64 .byte -34 .byte -64 .byte 88 .byte 10 .byte 88 .byte 10 .byte -7 .byte 3 .byte -7 .byte 3 .byte -36 .byte 2 .byte -36 .byte 2 .byte 96 .byte 2 .byte 96 .byte 2 .byte -5 .byte 6 .byte -5 .byte 6 .byte -101 .byte 1 .byte -101 .byte 1 .byte 52 .byte 12 .byte 52 .byte 12 .byte -34 .byte 6 .byte -34 .byte 6 .byte -84 .byte 77 .byte -89 .byte -111 .byte -14 .byte -63 .byte 62 .byte -35 .byte 107 .byte -111 .byte 116 .byte 35 .byte 10 .byte -118 .byte 74 .byte 71 .byte 115 .byte 52 .byte -63 .byte 54 .byte 29 .byte -114 .byte 44 .byte -50 .byte -64 .byte 65 .byte -40 .byte 16 .byte -91 .byte -95 .byte 6 .byte -70 .byte -84 .byte 9 .byte -89 .byte 12 .byte -14 .byte 11 .byte 62 .byte 3 .byte 107 .byte 0 .byte 116 .byte 7 .byte 10 .byte 12 .byte 74 .byte 9 .byte 115 .byte 11 .byte -63 .byte 3 .byte 29 .byte 7 .byte 44 .byte 10 .byte -64 .byte 1 .byte -40 .byte 8 .byte -91 .byte 2 .byte 6 .byte 8 .byte 49 .byte -122 .byte 91 .byte 99 .byte 42 .byte -29 .byte 72 .byte 95 .byte 66 .byte -82 .byte -62 .byte 42 .byte -105 .byte 94 .byte 94 .byte 66 .byte 96 .byte 40 .byte 3 .byte -31 .byte 27 .byte -88 .byte -101 .byte 42 .byte -107 .byte 123 .byte -28 .byte 111 .byte -66 .byte 93 .byte -14 .byte -69 .byte 49 .byte 3 .byte 91 .byte 2 .byte 42 .byte 5 .byte 72 .byte 7 .byte 66 .byte 8 .byte -62 .byte 4 .byte -105 .byte 9 .byte 94 .byte 8 .byte 96 .byte 8 .byte 3 .byte 8 .byte 27 .byte 7 .byte -101 .byte 9 .byte -107 .byte 12 .byte -28 .byte 3 .byte -66 .byte 3 .byte -14 .byte 5 .byte 73 .byte 79 .byte 98 .byte 8 .byte -4 .byte 59 .byte -128 .byte -127 .byte 121 .byte -25 .byte -54 .byte -59 .byte -36 .byte -44 .byte -122 .byte 56 .byte 7 .byte -84 .byte 26 .byte -79 .byte -85 .byte 90 .byte -34 .byte -69 .byte -51 .byte -94 .byte -33 .byte -80 .byte 77 .byte 30 .byte 92 .byte 90 .byte 73 .byte 4 .byte 98 .byte 2 .byte -4 .byte 7 .byte -128 .byte 1 .byte 121 .byte 12 .byte -54 .byte 7 .byte -36 .byte 0 .byte -122 .byte 6 .byte 7 .byte 7 .byte 26 .byte 3 .byte -85 .byte 9 .byte -34 .byte 1 .byte -51 .byte 11 .byte -33 .byte 3 .byte 77 .byte 7 .byte 92 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 7 .byte 0 .byte 1 .byte 2 .byte 3 .byte 4 .byte 5 .byte 6 .byte 15 .byte 8 .byte 9 .byte 10 .byte 11 .byte 12 .byte 13 .byte 14 .byte 23 .byte 16 .byte 17 .byte 18 .byte 19 .byte 20 .byte 21 .byte 22 .byte 31 .byte 24 .byte 25 .byte 26 .byte 27 .byte 28 .byte 29 .byte 30 .byte 1 .byte 2 .byte 3 .byte 4 .byte 5 .byte 6 .byte 7 .byte 0 .byte 9 .byte 10 .byte 11 .byte 12 .byte 13 .byte 14 .byte 15 .byte 8 .byte 17 .byte 18 .byte 19 .byte 20 .byte 21 .byte 22 .byte 23 .byte 16 .byte 25 .byte 26 .byte 27 .byte 28 .byte 29 .byte 30 .byte 31 .byte 24 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 46 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 63 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 37 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 58 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 54 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 49 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 50 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 41 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 45 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 55 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 1 .byte 4 .byte 5 .byte 8 .byte 9 .byte 12 .byte 13 .byte 2 .byte 3 .byte 6 .byte 7 .byte 10 .byte 11 .byte 14 .byte 15 .byte 3 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 4 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 4 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 4 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte 12 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 4 .byte 1 .byte 0 .byte 0 .byte 4 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 24 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 13 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 16 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 22 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 11 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 12 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 26 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 17 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -8 .byte 31 .byte -32 .byte 127 .byte 4 .byte 52 .byte 1 .byte 13 .byte 0 .byte 8 .byte -128 .byte 0 .byte 15 .byte 0 .byte -16 .byte 0 .byte -1 .byte 15 .byte -1 .byte 3 .byte 0 .byte 16 .byte 15 .byte 0 .byte 1 .byte 16 .byte 15 .byte 0 .byte 0 .byte 2 .byte 1 .byte 0 .byte 1 .byte 2 .byte -1 .byte 3 .byte 4 .byte 5 .byte -1 .byte 6 .byte 7 .byte 8 .byte -1 .byte 9 .byte 10 .byte 11 .byte -1 .byte 4 .byte 5 .byte 6 .byte -1 .byte 7 .byte 8 .byte 9 .byte -1 .byte 10 .byte 11 .byte 12 .byte -1 .byte 13 .byte 14 .byte 15 .byte -1 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -91 .byte 6 .byte 15 .byte 7 .byte -76 .byte 5 .byte 67 .byte 9 .byte 34 .byte 9 .byte 29 .byte 9 .byte 52 .byte 1 .byte 108 .byte 0 .byte 35 .byte 11 .byte 102 .byte 3 .byte 86 .byte 3 .byte -26 .byte 5 .byte -25 .byte 9 .byte -2 .byte 4 .byte -6 .byte 5 .byte -95 .byte 4 .byte 123 .byte 6 .byte -93 .byte 4 .byte 37 .byte 12 .byte 106 .byte 3 .byte 55 .byte 5 .byte 63 .byte 8 .byte -120 .byte 0 .byte -65 .byte 4 .byte -127 .byte 11 .byte -71 .byte 5 .byte 5 .byte 5 .byte -41 .byte 7 .byte -97 .byte 10 .byte -90 .byte 10 .byte -72 .byte 8 .byte -48 .byte 9 .byte 75 .byte 0 .byte -100 .byte 0 .byte -72 .byte 11 .byte 95 .byte 11 .byte -92 .byte 11 .byte 104 .byte 3 .byte 125 .byte 10 .byte 54 .byte 6 .byte -94 .byte 8 .byte 90 .byte 2 .byte 54 .byte 7 .byte 9 .byte 3 .byte -109 .byte 0 .byte 122 .byte 8 .byte -9 .byte 9 .byte -10 .byte 0 .byte -116 .byte 6 .byte -37 .byte 6 .byte -52 .byte 1 .byte 35 .byte 1 .byte -21 .byte 0 .byte 80 .byte 12 .byte -74 .byte 10 .byte 91 .byte 11 .byte -104 .byte 12 .byte -13 .byte 6 .byte -102 .byte 9 .byte -29 .byte 4 .byte -74 .byte 9 .byte -42 .byte 10 .byte 83 .byte 11 .byte 79 .byte 4 .byte -5 .byte 4 .byte 92 .byte 10 .byte 41 .byte 4 .byte 65 .byte 11 .byte -43 .byte 2 .byte -28 .byte 5 .byte 64 .byte 9 .byte -114 .byte 1 .byte -73 .byte 3 .byte -9 .byte 0 .byte -115 .byte 5 .byte -106 .byte 12 .byte -61 .byte 9 .byte 15 .byte 1 .byte 90 .byte 0 .byte 85 .byte 3 .byte 68 .byte 7 .byte -125 .byte 12 .byte -118 .byte 4 .byte 82 .byte 6 .byte -102 .byte 2 .byte 64 .byte 1 .byte 8 .byte 0 .byte -3 .byte 10 .byte 8 .byte 6 .byte 26 .byte 1 .byte 46 .byte 7 .byte 13 .byte 5 .byte 10 .byte 9 .byte 40 .byte 2 .byte 117 .byte 10 .byte 58 .byte 8 .byte 35 .byte 6 .byte -51 .byte 0 .byte 102 .byte 11 .byte 6 .byte 6 .byte -95 .byte 10 .byte 37 .byte 10 .byte 8 .byte 9 .byte -87 .byte 2 .byte -126 .byte 0 .byte 66 .byte 6 .byte 79 .byte 7 .byte 61 .byte 3 .byte -126 .byte 11 .byte -7 .byte 11 .byte 45 .byte 5 .byte -60 .byte 10 .byte 69 .byte 7 .byte -62 .byte 5 .byte -78 .byte 4 .byte 63 .byte 9 .byte 75 .byte 12 .byte -40 .byte 6 .byte -109 .byte 10 .byte -85 .byte 0 .byte 55 .byte 12 .byte -30 .byte 11 .byte 115 .byte 7 .byte 44 .byte 7 .byte -19 .byte 5 .byte 103 .byte 1 .byte -10 .byte 2 .byte -95 .byte 5 .byte -19 .byte 8 .byte 11 .byte 10 .byte -102 .byte 11 .byte 20 .byte 7 .byte -43 .byte 5 .byte -114 .byte 5 .byte 31 .byte 1 .byte -54 .byte 0 .byte 86 .byte 12 .byte 110 .byte 2 .byte 41 .byte 6 .byte -74 .byte 0 .byte -62 .byte 3 .byte 79 .byte 8 .byte 63 .byte 7 .byte -68 .byte 5 .byte 61 .byte 2 .byte -44 .byte 7 .byte 8 .byte 1 .byte 127 .byte 1 .byte -60 .byte 9 .byte -78 .byte 5 .byte -65 .byte 6 .byte 127 .byte 12 .byte 88 .byte 10 .byte -7 .byte 3 .byte -36 .byte 2 .byte 96 .byte 2 .byte -5 .byte 6 .byte -101 .byte 1 .byte 52 .byte 12 .byte -34 .byte 6 .byte -57 .byte 4 .byte -116 .byte 2 .byte -39 .byte 10 .byte -9 .byte 3 .byte -12 .byte 7 .byte -45 .byte 5 .byte -25 .byte 11 .byte -7 .byte 6 .byte 4 .byte 2 .byte -7 .byte 12 .byte -63 .byte 11 .byte 103 .byte 10 .byte -81 .byte 6 .byte 119 .byte 8 .byte 126 .byte 0 .byte -67 .byte 5 .byte -84 .byte 9 .byte -89 .byte 12 .byte -14 .byte 11 .byte 62 .byte 3 .byte 107 .byte 0 .byte 116 .byte 7 .byte 10 .byte 12 .byte 74 .byte 9 .byte 115 .byte 11 .byte -63 .byte 3 .byte 29 .byte 7 .byte 44 .byte 10 .byte -64 .byte 1 .byte -40 .byte 8 .byte -91 .byte 2 .byte 6 .byte 8 .byte -78 .byte 8 .byte -82 .byte 1 .byte 43 .byte 2 .byte 75 .byte 3 .byte 30 .byte 8 .byte 103 .byte 3 .byte 14 .byte 6 .byte 105 .byte 0 .byte -90 .byte 1 .byte 75 .byte 2 .byte -79 .byte 0 .byte 22 .byte 12 .byte -34 .byte 11 .byte 53 .byte 11 .byte 38 .byte 6 .byte 117 .byte 6 .byte 11 .byte 12 .byte 10 .byte 3 .byte -121 .byte 4 .byte 110 .byte 12 .byte -8 .byte 9 .byte -53 .byte 5 .byte -89 .byte 10 .byte 95 .byte 4 .byte -53 .byte 6 .byte -124 .byte 2 .byte -103 .byte 9 .byte 93 .byte 1 .byte -94 .byte 1 .byte 73 .byte 1 .byte 101 .byte 12 .byte -74 .byte 12 .byte 49 .byte 3 .byte 73 .byte 4 .byte 91 .byte 2 .byte 98 .byte 2 .byte 42 .byte 5 .byte -4 .byte 7 .byte 72 .byte 7 .byte -128 .byte 1 .byte 66 .byte 8 .byte 121 .byte 12 .byte -62 .byte 4 .byte -54 .byte 7 .byte -105 .byte 9 .byte -36 .byte 0 .byte 94 .byte 8 .byte -122 .byte 6 .byte 96 .byte 8 .byte 7 .byte 7 .byte 3 .byte 8 .byte 26 .byte 3 .byte 27 .byte 7 .byte -85 .byte 9 .byte -101 .byte 9 .byte -34 .byte 1 .byte -107 .byte 12 .byte -51 .byte 11 .byte -28 .byte 3 .byte -33 .byte 3 .byte -66 .byte 3 .byte 77 .byte 7 .byte -14 .byte 5 .byte 92 .byte 6 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128
usenix-security-verdict/verdict
377,805
deps/libcrux/sys/libjade/jazz/kyber_kyber768_ref.s
.att_syntax .text .p2align 5 .globl _jade_kem_kyber_kyber768_amd64_ref_dec .globl jade_kem_kyber_kyber768_amd64_ref_dec .globl _jade_kem_kyber_kyber768_amd64_ref_enc_derand .globl jade_kem_kyber_kyber768_amd64_ref_enc_derand .globl _jade_kem_kyber_kyber768_amd64_ref_keypair_derand .globl jade_kem_kyber_kyber768_amd64_ref_keypair_derand _jade_kem_kyber_kyber768_amd64_ref_dec: jade_kem_kyber_kyber768_amd64_ref_dec: movq %rsp, %rax leaq -14560(%rsp), %rsp andq $-8, %rsp movq %rax, 14552(%rsp) movq %r15, 14504(%rsp) movq %r14, 14512(%rsp) movq %r13, 14520(%rsp) movq %r12, 14528(%rsp) movq %rbp, 14536(%rsp) movq %rbx, 14544(%rsp) movq %rdi, (%rsp) movq %rsi, 8(%rsp) leaq 80(%rsp), %rax movq $0, %rcx movq $0, %rdi jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$225 Ljade_kem_kyber_kyber768_amd64_ref_dec$226: movzbl (%rsi,%rdi), %r10d incq %rdi movzbl (%rsi,%rdi), %r11d incq %rdi movzbl (%rsi,%rdi), %r8d incq %rdi movzbl (%rsi,%rdi), %r9d incq %rdi movzbl (%rsi,%rdi), %ebx incq %rdi movl %r11d, %ebp shrl $2, %r11d andl $3, %ebp shll $8, %ebp orl %ebp, %r10d movl %r8d, %ebp shrl $4, %r8d andl $15, %ebp shll $6, %ebp orl %ebp, %r11d movl %r9d, %ebp shrl $6, %r9d andl $63, %ebp shll $4, %ebp orl %ebp, %r8d shll $2, %ebx orl %ebx, %r9d imull $3329, %r10d, %r10d addl $512, %r10d shrl $10, %r10d movw %r10w, 2456(%rsp,%rcx,2) incq %rcx imull $3329, %r11d, %r10d addl $512, %r10d shrl $10, %r10d movw %r10w, 2456(%rsp,%rcx,2) incq %rcx imull $3329, %r8d, %r8d addl $512, %r8d shrl $10, %r8d movw %r8w, 2456(%rsp,%rcx,2) incq %rcx imull $3329, %r9d, %r8d addl $512, %r8d shrl $10, %r8d movw %r8w, 2456(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$225: cmpq $768, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$226 addq $960, %rsi leaq 920(%rsp), %rcx call L_poly_decompress$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$224: movq %rdx, %rsi leaq 3992(%rsp), %rdi call L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$223: addq $384, %rsi leaq 4504(%rsp), %rdi call L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$222: addq $384, %rsi leaq 5016(%rsp), %rdi call L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$221: leaq 2456(%rsp), %rcx call L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$220: leaq 2968(%rsp), %rcx call L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$219: leaq 3480(%rsp), %rcx call L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$218: leaq 408(%rsp), %rdi leaq 3992(%rsp), %rcx leaq 2456(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$217: leaq 16(%rsp), %rsp leaq 1432(%rsp), %rdi leaq 4504(%rsp), %rcx leaq 2968(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$216: leaq 16(%rsp), %rsp leaq 408(%rsp), %rcx leaq 1432(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$215: leaq 1432(%rsp), %rdi leaq 5016(%rsp), %rcx leaq 3480(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$214: leaq 16(%rsp), %rsp leaq 408(%rsp), %rcx leaq 1432(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$213: leaq 408(%rsp), %rcx movq $0, %rsi jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$211 Ljade_kem_kyber_kyber768_amd64_ref_dec$212: movw (%rcx,%rsi,2), %di movswl %di, %r8d imull $20159, %r8d, %r8d sarl $26, %r8d imull $3329, %r8d, %r8d subw %r8w, %di movw %di, (%rcx,%rsi,2) incq %rsi Ljade_kem_kyber_kyber768_amd64_ref_dec$211: cmpq $256, %rsi jb Ljade_kem_kyber_kyber768_amd64_ref_dec$212 leaq 408(%rsp), %rcx call L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$210: leaq 1432(%rsp), %rcx leaq 920(%rsp), %rsi leaq 408(%rsp), %rdi call L_poly_sub$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$209: leaq 1432(%rsp), %rcx movq $0, %rsi jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$207 Ljade_kem_kyber_kyber768_amd64_ref_dec$208: movw (%rcx,%rsi,2), %di movswl %di, %r8d imull $20159, %r8d, %r8d sarl $26, %r8d imull $3329, %r8d, %r8d subw %r8w, %di movw %di, (%rcx,%rsi,2) incq %rsi Ljade_kem_kyber_kyber768_amd64_ref_dec$207: cmpq $256, %rsi jb Ljade_kem_kyber_kyber768_amd64_ref_dec$208 leaq 1432(%rsp), %rcx call L_i_poly_tomsg$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$206: leaq 32(%rdx), %rax addq $2304, %rax movq (%rax), %rcx movq %rcx, 112(%rsp) movq 8(%rax), %rcx movq %rcx, 120(%rsp) movq 16(%rax), %rcx movq %rcx, 128(%rsp) movq 24(%rax), %rax movq %rax, 136(%rsp) movq %rdx, 16(%rsp) leaq 144(%rsp), %rax leaq 80(%rsp), %rdx leaq -208(%rsp), %rsp call L_sha3_512_64$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$205: leaq 208(%rsp), %rsp movq 16(%rsp), %rdx addq $1152, %rdx leaq 13410(%rsp), %rsi leaq 80(%rsp), %rcx leaq 176(%rsp), %rax movq %rsi, 24(%rsp) movq %rdx, %rsi leaq 2456(%rsp), %rdi call L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$204: addq $384, %rsi leaq 2968(%rsp), %rdi call L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$203: addq $384, %rsi leaq 3480(%rsp), %rdi call L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$202: movq $0, %rsi addq $1152, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$200 Ljade_kem_kyber_kyber768_amd64_ref_dec$201: movq (%rdx), %rdi movq %rdi, 48(%rsp,%rsi,8) addq $8, %rdx incq %rsi Ljade_kem_kyber_kyber768_amd64_ref_dec$200: cmpq $4, %rsi jb Ljade_kem_kyber_kyber768_amd64_ref_dec$201 leaq 1432(%rsp), %rdx call L_i_poly_frommsg$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$199: movq $1, %rcx movq %rcx, 32(%rsp) movb 48(%rsp), %cl movb %cl, 13208(%rsp) movb 49(%rsp), %cl movb %cl, 13209(%rsp) movb 50(%rsp), %cl movb %cl, 13210(%rsp) movb 51(%rsp), %cl movb %cl, 13211(%rsp) movb 52(%rsp), %cl movb %cl, 13212(%rsp) movb 53(%rsp), %cl movb %cl, 13213(%rsp) movb 54(%rsp), %cl movb %cl, 13214(%rsp) movb 55(%rsp), %cl movb %cl, 13215(%rsp) movb 56(%rsp), %cl movb %cl, 13216(%rsp) movb 57(%rsp), %cl movb %cl, 13217(%rsp) movb 58(%rsp), %cl movb %cl, 13218(%rsp) movb 59(%rsp), %cl movb %cl, 13219(%rsp) movb 60(%rsp), %cl movb %cl, 13220(%rsp) movb 61(%rsp), %cl movb %cl, 13221(%rsp) movb 62(%rsp), %cl movb %cl, 13222(%rsp) movb 63(%rsp), %cl movb %cl, 13223(%rsp) movb 64(%rsp), %cl movb %cl, 13224(%rsp) movb 65(%rsp), %cl movb %cl, 13225(%rsp) movb 66(%rsp), %cl movb %cl, 13226(%rsp) movb 67(%rsp), %cl movb %cl, 13227(%rsp) movb 68(%rsp), %cl movb %cl, 13228(%rsp) movb 69(%rsp), %cl movb %cl, 13229(%rsp) movb 70(%rsp), %cl movb %cl, 13230(%rsp) movb 71(%rsp), %cl movb %cl, 13231(%rsp) movb 72(%rsp), %cl movb %cl, 13232(%rsp) movb 73(%rsp), %cl movb %cl, 13233(%rsp) movb 74(%rsp), %cl movb %cl, 13234(%rsp) movb 75(%rsp), %cl movb %cl, 13235(%rsp) movb 76(%rsp), %cl movb %cl, 13236(%rsp) movb 77(%rsp), %cl movb %cl, 13237(%rsp) movb 78(%rsp), %cl movb %cl, 13238(%rsp) movb 79(%rsp), %cl movb %cl, 13239(%rsp) movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$197 movb $0, 13240(%rsp) movb $0, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$198 Ljade_kem_kyber_kyber768_amd64_ref_dec$197: movb $0, 13240(%rsp) movb $0, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$198: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$196: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$194 Ljade_kem_kyber_kyber768_amd64_ref_dec$195: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$194: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$195 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$186 Ljade_kem_kyber_kyber768_amd64_ref_dec$187: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$193: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$188: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$191 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$191 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$192: Ljade_kem_kyber_kyber768_amd64_ref_dec$191: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$189 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$189 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$190: Ljade_kem_kyber_kyber768_amd64_ref_dec$189: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$188 Ljade_kem_kyber_kyber768_amd64_ref_dec$186: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$187 movq $0, %rcx movq $0, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$184 Ljade_kem_kyber_kyber768_amd64_ref_dec$185: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$184: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$185 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$182 movb $0, 13240(%rsp) movb $1, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$183 Ljade_kem_kyber_kyber768_amd64_ref_dec$182: movb $1, 13240(%rsp) movb $0, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$183: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$181: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$179 Ljade_kem_kyber_kyber768_amd64_ref_dec$180: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$179: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$180 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$171 Ljade_kem_kyber_kyber768_amd64_ref_dec$172: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$178: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$173: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$176 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$176 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$177: Ljade_kem_kyber_kyber768_amd64_ref_dec$176: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$174 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$174 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$175: Ljade_kem_kyber_kyber768_amd64_ref_dec$174: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$173 Ljade_kem_kyber_kyber768_amd64_ref_dec$171: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$172 movq $0, %rcx movq $256, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$169 Ljade_kem_kyber_kyber768_amd64_ref_dec$170: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$169: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$170 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$167 movb $0, 13240(%rsp) movb $2, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$168 Ljade_kem_kyber_kyber768_amd64_ref_dec$167: movb $2, 13240(%rsp) movb $0, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$168: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$166: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$164 Ljade_kem_kyber_kyber768_amd64_ref_dec$165: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$164: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$165 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$156 Ljade_kem_kyber_kyber768_amd64_ref_dec$157: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$163: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$158: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$161 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$161 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$162: Ljade_kem_kyber_kyber768_amd64_ref_dec$161: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$159 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$159 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$160: Ljade_kem_kyber_kyber768_amd64_ref_dec$159: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$158 Ljade_kem_kyber_kyber768_amd64_ref_dec$156: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$157 movq $0, %rcx movq $512, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$154 Ljade_kem_kyber_kyber768_amd64_ref_dec$155: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$154: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$155 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$152 movb $1, 13240(%rsp) movb $0, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$153 Ljade_kem_kyber_kyber768_amd64_ref_dec$152: movb $0, 13240(%rsp) movb $1, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$153: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$151: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$149 Ljade_kem_kyber_kyber768_amd64_ref_dec$150: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$149: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$150 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$141 Ljade_kem_kyber_kyber768_amd64_ref_dec$142: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$148: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$143: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$146 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$146 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$147: Ljade_kem_kyber_kyber768_amd64_ref_dec$146: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$144 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$144 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$145: Ljade_kem_kyber_kyber768_amd64_ref_dec$144: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$143 Ljade_kem_kyber_kyber768_amd64_ref_dec$141: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$142 movq $0, %rcx movq $768, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$139 Ljade_kem_kyber_kyber768_amd64_ref_dec$140: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$139: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$140 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$137 movb $1, 13240(%rsp) movb $1, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$138 Ljade_kem_kyber_kyber768_amd64_ref_dec$137: movb $1, 13240(%rsp) movb $1, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$138: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$136: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$134 Ljade_kem_kyber_kyber768_amd64_ref_dec$135: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$134: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$135 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$126 Ljade_kem_kyber_kyber768_amd64_ref_dec$127: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$133: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$128: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$131 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$131 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$132: Ljade_kem_kyber_kyber768_amd64_ref_dec$131: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$129 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$129 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$130: Ljade_kem_kyber_kyber768_amd64_ref_dec$129: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$128 Ljade_kem_kyber_kyber768_amd64_ref_dec$126: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$127 movq $0, %rcx movq $1024, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$124 Ljade_kem_kyber_kyber768_amd64_ref_dec$125: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$124: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$125 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$122 movb $1, 13240(%rsp) movb $2, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$123 Ljade_kem_kyber_kyber768_amd64_ref_dec$122: movb $2, 13240(%rsp) movb $1, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$123: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$121: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$119 Ljade_kem_kyber_kyber768_amd64_ref_dec$120: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$119: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$120 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$111 Ljade_kem_kyber_kyber768_amd64_ref_dec$112: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$118: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$113: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$116 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$116 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$117: Ljade_kem_kyber_kyber768_amd64_ref_dec$116: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$114 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$114 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$115: Ljade_kem_kyber_kyber768_amd64_ref_dec$114: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$113 Ljade_kem_kyber_kyber768_amd64_ref_dec$111: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$112 movq $0, %rcx movq $1280, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$109 Ljade_kem_kyber_kyber768_amd64_ref_dec$110: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$109: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$110 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$107 movb $2, 13240(%rsp) movb $0, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$108 Ljade_kem_kyber_kyber768_amd64_ref_dec$107: movb $0, 13240(%rsp) movb $2, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$108: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$106: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$104 Ljade_kem_kyber_kyber768_amd64_ref_dec$105: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$104: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$105 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$96 Ljade_kem_kyber_kyber768_amd64_ref_dec$97: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$103: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$98: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$101 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$101 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$102: Ljade_kem_kyber_kyber768_amd64_ref_dec$101: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$99 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$99 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$100: Ljade_kem_kyber_kyber768_amd64_ref_dec$99: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$98 Ljade_kem_kyber_kyber768_amd64_ref_dec$96: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$97 movq $0, %rcx movq $1536, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$94 Ljade_kem_kyber_kyber768_amd64_ref_dec$95: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$94: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$95 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$92 movb $2, 13240(%rsp) movb $1, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$93 Ljade_kem_kyber_kyber768_amd64_ref_dec$92: movb $1, 13240(%rsp) movb $2, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$93: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$91: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$89 Ljade_kem_kyber_kyber768_amd64_ref_dec$90: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$89: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$90 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$81 Ljade_kem_kyber_kyber768_amd64_ref_dec$82: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$88: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$83: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$86 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$86 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$87: Ljade_kem_kyber_kyber768_amd64_ref_dec$86: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$84 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$84 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$85: Ljade_kem_kyber_kyber768_amd64_ref_dec$84: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$83 Ljade_kem_kyber_kyber768_amd64_ref_dec$81: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$82 movq $0, %rcx movq $1792, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$79 Ljade_kem_kyber_kyber768_amd64_ref_dec$80: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$79: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$80 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$77 movb $2, 13240(%rsp) movb $2, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$78 Ljade_kem_kyber_kyber768_amd64_ref_dec$77: movb $2, 13240(%rsp) movb $2, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$78: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$76: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$74 Ljade_kem_kyber_kyber768_amd64_ref_dec$75: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$74: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$75 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$66 Ljade_kem_kyber_kyber768_amd64_ref_dec$67: movq %rcx, 32(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$73: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$68: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$71 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$71 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$72: Ljade_kem_kyber_kyber768_amd64_ref_dec$71: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$69 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$69 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$70: Ljade_kem_kyber_kyber768_amd64_ref_dec$69: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$68 Ljade_kem_kyber_kyber768_amd64_ref_dec$66: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$67 movq $0, %rcx movq $2048, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$64 Ljade_kem_kyber_kyber768_amd64_ref_dec$65: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$64: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$65 movb $0, %cl leaq 3992(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$63: leaq 176(%rsp), %rsp movb $1, %cl leaq 4504(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$62: leaq 176(%rsp), %rsp movb $2, %cl leaq 5016(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$61: leaq 176(%rsp), %rsp movb $3, %cl leaq 5528(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$60: leaq 176(%rsp), %rsp movb $4, %cl leaq 6040(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$59: leaq 176(%rsp), %rsp movb $5, %cl leaq 6552(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$58: leaq 176(%rsp), %rsp movb $6, %cl leaq 408(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$57: leaq 176(%rsp), %rsp leaq 3992(%rsp), %rcx call L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$56: leaq 4504(%rsp), %rcx call L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$55: leaq 5016(%rsp), %rcx call L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$54: leaq 7064(%rsp), %rdi leaq 8600(%rsp), %rcx leaq 3992(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$53: leaq 16(%rsp), %rsp leaq 920(%rsp), %rdi leaq 9112(%rsp), %rcx leaq 4504(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$52: leaq 16(%rsp), %rsp leaq 7064(%rsp), %rcx leaq 920(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$51: leaq 920(%rsp), %rdi leaq 9624(%rsp), %rcx leaq 5016(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$50: leaq 16(%rsp), %rsp leaq 7064(%rsp), %rcx leaq 920(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$49: leaq 7064(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$47 Ljade_kem_kyber_kyber768_amd64_ref_dec$48: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$47: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$48 leaq 7576(%rsp), %rdi leaq 10136(%rsp), %rcx leaq 3992(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$46: leaq 16(%rsp), %rsp leaq 920(%rsp), %rdi leaq 10648(%rsp), %rcx leaq 4504(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$45: leaq 16(%rsp), %rsp leaq 7576(%rsp), %rcx leaq 920(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$44: leaq 920(%rsp), %rdi leaq 11160(%rsp), %rcx leaq 5016(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$43: leaq 16(%rsp), %rsp leaq 7576(%rsp), %rcx leaq 920(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$42: leaq 7576(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$40 Ljade_kem_kyber_kyber768_amd64_ref_dec$41: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$40: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$41 leaq 8088(%rsp), %rdi leaq 11672(%rsp), %rcx leaq 3992(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$39: leaq 16(%rsp), %rsp leaq 920(%rsp), %rdi leaq 12184(%rsp), %rcx leaq 4504(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$38: leaq 16(%rsp), %rsp leaq 8088(%rsp), %rcx leaq 920(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$37: leaq 920(%rsp), %rdi leaq 12696(%rsp), %rcx leaq 5016(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$36: leaq 16(%rsp), %rsp leaq 8088(%rsp), %rcx leaq 920(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$35: leaq 8088(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$33 Ljade_kem_kyber_kyber768_amd64_ref_dec$34: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$33: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$34 leaq 920(%rsp), %rdi leaq 2456(%rsp), %rcx leaq 3992(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$32: leaq 16(%rsp), %rsp leaq 1944(%rsp), %rdi leaq 2968(%rsp), %rcx leaq 4504(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$31: leaq 16(%rsp), %rsp leaq 920(%rsp), %rcx leaq 1944(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$30: leaq 1944(%rsp), %rdi leaq 3480(%rsp), %rcx leaq 5016(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$29: leaq 16(%rsp), %rsp leaq 920(%rsp), %rcx leaq 1944(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$28: leaq 920(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$26 Ljade_kem_kyber_kyber768_amd64_ref_dec$27: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$26: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$27 leaq 7064(%rsp), %rcx call L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$25: leaq 7576(%rsp), %rcx call L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$24: leaq 8088(%rsp), %rcx call L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$23: leaq 920(%rsp), %rcx call L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$22: leaq 7064(%rsp), %rcx leaq 5528(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$21: leaq 7576(%rsp), %rcx leaq 6040(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$20: leaq 8088(%rsp), %rcx leaq 6552(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$19: leaq 920(%rsp), %rcx leaq 408(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$18: leaq 920(%rsp), %rcx leaq 1432(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$17: leaq 7064(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$15 Ljade_kem_kyber_kyber768_amd64_ref_dec$16: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$15: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$16 leaq 7576(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$13 Ljade_kem_kyber_kyber768_amd64_ref_dec$14: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$13: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$14 leaq 8088(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$11 Ljade_kem_kyber_kyber768_amd64_ref_dec$12: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$11: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$12 leaq 920(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$9 Ljade_kem_kyber_kyber768_amd64_ref_dec$10: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$9: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$10 movq 24(%rsp), %rax movq %rax, %rdx movq $0, %rsi movq $0, %rdi leaq 7064(%rsp), %rcx call L_poly_csubq$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$8: leaq 7576(%rsp), %rcx call L_poly_csubq$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$7: leaq 8088(%rsp), %rcx call L_poly_csubq$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$6: jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$4 Ljade_kem_kyber_kyber768_amd64_ref_dec$5: movzwq 7064(%rsp,%rsi,2), %rcx incq %rsi shlq $10, %rcx addq $1665, %rcx imulq $1290167, %rcx, %rcx shrq $32, %rcx andq $1023, %rcx movzwq 7064(%rsp,%rsi,2), %r8 incq %rsi shlq $10, %r8 addq $1665, %r8 imulq $1290167, %r8, %r8 shrq $32, %r8 andq $1023, %r8 movzwq 7064(%rsp,%rsi,2), %r9 incq %rsi shlq $10, %r9 addq $1665, %r9 imulq $1290167, %r9, %r9 shrq $32, %r9 andq $1023, %r9 movzwq 7064(%rsp,%rsi,2), %r10 incq %rsi shlq $10, %r10 addq $1665, %r10 imulq $1290167, %r10, %r10 shrq $32, %r10 andq $1023, %r10 movw %cx, %r11w andw $255, %r11w movb %r11b, (%rdx,%rdi) incq %rdi shrw $8, %cx movw %r8w, %r11w shlw $2, %r11w orw %cx, %r11w movb %r11b, (%rdx,%rdi) incq %rdi shrw $6, %r8w movw %r9w, %cx shlw $4, %cx orw %r8w, %cx movb %cl, (%rdx,%rdi) incq %rdi shrw $4, %r9w movw %r10w, %cx shlw $6, %cx orw %r9w, %cx movb %cl, (%rdx,%rdi) incq %rdi shrq $2, %r10 movb %r10b, (%rdx,%rdi) incq %rdi Ljade_kem_kyber_kyber768_amd64_ref_dec$4: cmpq $768, %rsi jb Ljade_kem_kyber_kyber768_amd64_ref_dec$5 leaq 960(%rax), %rax leaq 920(%rsp), %rcx call L_i_poly_compress$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$3: movq 8(%rsp), %rsi leaq 13410(%rsp), %rax movq $0, %rcx movb (%rax), %dl movb (%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1(%rax), %dl movb 1(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 2(%rax), %dl movb 2(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 3(%rax), %dl movb 3(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 4(%rax), %dl movb 4(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 5(%rax), %dl movb 5(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 6(%rax), %dl movb 6(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 7(%rax), %dl movb 7(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 8(%rax), %dl movb 8(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 9(%rax), %dl movb 9(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 10(%rax), %dl movb 10(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 11(%rax), %dl movb 11(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 12(%rax), %dl movb 12(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 13(%rax), %dl movb 13(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 14(%rax), %dl movb 14(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 15(%rax), %dl movb 15(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 16(%rax), %dl movb 16(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 17(%rax), %dl movb 17(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 18(%rax), %dl movb 18(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 19(%rax), %dl movb 19(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 20(%rax), %dl movb 20(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 21(%rax), %dl movb 21(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 22(%rax), %dl movb 22(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 23(%rax), %dl movb 23(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 24(%rax), %dl movb 24(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 25(%rax), %dl movb 25(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 26(%rax), %dl movb 26(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 27(%rax), %dl movb 27(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 28(%rax), %dl movb 28(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 29(%rax), %dl movb 29(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 30(%rax), %dl movb 30(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 31(%rax), %dl movb 31(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 32(%rax), %dl movb 32(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 33(%rax), %dl movb 33(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 34(%rax), %dl movb 34(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 35(%rax), %dl movb 35(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 36(%rax), %dl movb 36(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 37(%rax), %dl movb 37(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 38(%rax), %dl movb 38(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 39(%rax), %dl movb 39(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 40(%rax), %dl movb 40(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 41(%rax), %dl movb 41(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 42(%rax), %dl movb 42(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 43(%rax), %dl movb 43(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 44(%rax), %dl movb 44(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 45(%rax), %dl movb 45(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 46(%rax), %dl movb 46(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 47(%rax), %dl movb 47(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 48(%rax), %dl movb 48(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 49(%rax), %dl movb 49(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 50(%rax), %dl movb 50(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 51(%rax), %dl movb 51(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 52(%rax), %dl movb 52(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 53(%rax), %dl movb 53(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 54(%rax), %dl movb 54(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 55(%rax), %dl movb 55(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 56(%rax), %dl movb 56(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 57(%rax), %dl movb 57(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 58(%rax), %dl movb 58(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 59(%rax), %dl movb 59(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 60(%rax), %dl movb 60(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 61(%rax), %dl movb 61(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 62(%rax), %dl movb 62(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 63(%rax), %dl movb 63(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 64(%rax), %dl movb 64(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 65(%rax), %dl movb 65(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 66(%rax), %dl movb 66(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 67(%rax), %dl movb 67(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 68(%rax), %dl movb 68(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 69(%rax), %dl movb 69(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 70(%rax), %dl movb 70(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 71(%rax), %dl movb 71(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 72(%rax), %dl movb 72(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 73(%rax), %dl movb 73(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 74(%rax), %dl movb 74(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 75(%rax), %dl movb 75(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 76(%rax), %dl movb 76(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 77(%rax), %dl movb 77(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 78(%rax), %dl movb 78(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 79(%rax), %dl movb 79(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 80(%rax), %dl movb 80(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 81(%rax), %dl movb 81(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 82(%rax), %dl movb 82(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 83(%rax), %dl movb 83(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 84(%rax), %dl movb 84(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 85(%rax), %dl movb 85(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 86(%rax), %dl movb 86(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 87(%rax), %dl movb 87(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 88(%rax), %dl movb 88(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 89(%rax), %dl movb 89(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 90(%rax), %dl movb 90(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 91(%rax), %dl movb 91(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 92(%rax), %dl movb 92(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 93(%rax), %dl movb 93(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 94(%rax), %dl movb 94(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 95(%rax), %dl movb 95(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 96(%rax), %dl movb 96(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 97(%rax), %dl movb 97(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 98(%rax), %dl movb 98(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 99(%rax), %dl movb 99(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 100(%rax), %dl movb 100(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 101(%rax), %dl movb 101(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 102(%rax), %dl movb 102(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 103(%rax), %dl movb 103(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 104(%rax), %dl movb 104(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 105(%rax), %dl movb 105(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 106(%rax), %dl movb 106(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 107(%rax), %dl movb 107(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 108(%rax), %dl movb 108(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 109(%rax), %dl movb 109(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 110(%rax), %dl movb 110(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 111(%rax), %dl movb 111(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 112(%rax), %dl movb 112(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 113(%rax), %dl movb 113(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 114(%rax), %dl movb 114(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 115(%rax), %dl movb 115(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 116(%rax), %dl movb 116(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 117(%rax), %dl movb 117(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 118(%rax), %dl movb 118(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 119(%rax), %dl movb 119(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 120(%rax), %dl movb 120(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 121(%rax), %dl movb 121(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 122(%rax), %dl movb 122(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 123(%rax), %dl movb 123(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 124(%rax), %dl movb 124(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 125(%rax), %dl movb 125(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 126(%rax), %dl movb 126(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 127(%rax), %dl movb 127(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 128(%rax), %dl movb 128(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 129(%rax), %dl movb 129(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 130(%rax), %dl movb 130(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 131(%rax), %dl movb 131(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 132(%rax), %dl movb 132(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 133(%rax), %dl movb 133(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 134(%rax), %dl movb 134(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 135(%rax), %dl movb 135(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 136(%rax), %dl movb 136(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 137(%rax), %dl movb 137(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 138(%rax), %dl movb 138(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 139(%rax), %dl movb 139(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 140(%rax), %dl movb 140(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 141(%rax), %dl movb 141(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 142(%rax), %dl movb 142(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 143(%rax), %dl movb 143(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 144(%rax), %dl movb 144(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 145(%rax), %dl movb 145(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 146(%rax), %dl movb 146(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 147(%rax), %dl movb 147(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 148(%rax), %dl movb 148(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 149(%rax), %dl movb 149(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 150(%rax), %dl movb 150(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 151(%rax), %dl movb 151(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 152(%rax), %dl movb 152(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 153(%rax), %dl movb 153(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 154(%rax), %dl movb 154(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 155(%rax), %dl movb 155(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 156(%rax), %dl movb 156(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 157(%rax), %dl movb 157(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 158(%rax), %dl movb 158(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 159(%rax), %dl movb 159(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 160(%rax), %dl movb 160(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 161(%rax), %dl movb 161(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 162(%rax), %dl movb 162(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 163(%rax), %dl movb 163(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 164(%rax), %dl movb 164(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 165(%rax), %dl movb 165(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 166(%rax), %dl movb 166(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 167(%rax), %dl movb 167(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 168(%rax), %dl movb 168(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 169(%rax), %dl movb 169(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 170(%rax), %dl movb 170(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 171(%rax), %dl movb 171(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 172(%rax), %dl movb 172(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 173(%rax), %dl movb 173(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 174(%rax), %dl movb 174(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 175(%rax), %dl movb 175(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 176(%rax), %dl movb 176(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 177(%rax), %dl movb 177(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 178(%rax), %dl movb 178(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 179(%rax), %dl movb 179(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 180(%rax), %dl movb 180(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 181(%rax), %dl movb 181(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 182(%rax), %dl movb 182(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 183(%rax), %dl movb 183(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 184(%rax), %dl movb 184(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 185(%rax), %dl movb 185(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 186(%rax), %dl movb 186(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 187(%rax), %dl movb 187(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 188(%rax), %dl movb 188(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 189(%rax), %dl movb 189(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 190(%rax), %dl movb 190(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 191(%rax), %dl movb 191(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 192(%rax), %dl movb 192(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 193(%rax), %dl movb 193(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 194(%rax), %dl movb 194(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 195(%rax), %dl movb 195(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 196(%rax), %dl movb 196(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 197(%rax), %dl movb 197(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 198(%rax), %dl movb 198(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 199(%rax), %dl movb 199(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 200(%rax), %dl movb 200(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 201(%rax), %dl movb 201(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 202(%rax), %dl movb 202(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 203(%rax), %dl movb 203(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 204(%rax), %dl movb 204(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 205(%rax), %dl movb 205(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 206(%rax), %dl movb 206(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 207(%rax), %dl movb 207(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 208(%rax), %dl movb 208(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 209(%rax), %dl movb 209(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 210(%rax), %dl movb 210(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 211(%rax), %dl movb 211(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 212(%rax), %dl movb 212(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 213(%rax), %dl movb 213(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 214(%rax), %dl movb 214(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 215(%rax), %dl movb 215(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 216(%rax), %dl movb 216(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 217(%rax), %dl movb 217(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 218(%rax), %dl movb 218(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 219(%rax), %dl movb 219(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 220(%rax), %dl movb 220(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 221(%rax), %dl movb 221(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 222(%rax), %dl movb 222(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 223(%rax), %dl movb 223(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 224(%rax), %dl movb 224(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 225(%rax), %dl movb 225(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 226(%rax), %dl movb 226(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 227(%rax), %dl movb 227(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 228(%rax), %dl movb 228(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 229(%rax), %dl movb 229(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 230(%rax), %dl movb 230(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 231(%rax), %dl movb 231(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 232(%rax), %dl movb 232(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 233(%rax), %dl movb 233(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 234(%rax), %dl movb 234(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 235(%rax), %dl movb 235(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 236(%rax), %dl movb 236(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 237(%rax), %dl movb 237(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 238(%rax), %dl movb 238(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 239(%rax), %dl movb 239(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 240(%rax), %dl movb 240(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 241(%rax), %dl movb 241(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 242(%rax), %dl movb 242(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 243(%rax), %dl movb 243(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 244(%rax), %dl movb 244(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 245(%rax), %dl movb 245(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 246(%rax), %dl movb 246(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 247(%rax), %dl movb 247(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 248(%rax), %dl movb 248(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 249(%rax), %dl movb 249(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 250(%rax), %dl movb 250(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 251(%rax), %dl movb 251(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 252(%rax), %dl movb 252(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 253(%rax), %dl movb 253(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 254(%rax), %dl movb 254(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 255(%rax), %dl movb 255(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 256(%rax), %dl movb 256(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 257(%rax), %dl movb 257(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 258(%rax), %dl movb 258(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 259(%rax), %dl movb 259(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 260(%rax), %dl movb 260(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 261(%rax), %dl movb 261(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 262(%rax), %dl movb 262(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 263(%rax), %dl movb 263(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 264(%rax), %dl movb 264(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 265(%rax), %dl movb 265(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 266(%rax), %dl movb 266(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 267(%rax), %dl movb 267(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 268(%rax), %dl movb 268(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 269(%rax), %dl movb 269(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 270(%rax), %dl movb 270(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 271(%rax), %dl movb 271(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 272(%rax), %dl movb 272(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 273(%rax), %dl movb 273(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 274(%rax), %dl movb 274(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 275(%rax), %dl movb 275(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 276(%rax), %dl movb 276(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 277(%rax), %dl movb 277(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 278(%rax), %dl movb 278(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 279(%rax), %dl movb 279(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 280(%rax), %dl movb 280(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 281(%rax), %dl movb 281(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 282(%rax), %dl movb 282(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 283(%rax), %dl movb 283(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 284(%rax), %dl movb 284(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 285(%rax), %dl movb 285(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 286(%rax), %dl movb 286(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 287(%rax), %dl movb 287(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 288(%rax), %dl movb 288(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 289(%rax), %dl movb 289(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 290(%rax), %dl movb 290(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 291(%rax), %dl movb 291(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 292(%rax), %dl movb 292(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 293(%rax), %dl movb 293(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 294(%rax), %dl movb 294(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 295(%rax), %dl movb 295(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 296(%rax), %dl movb 296(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 297(%rax), %dl movb 297(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 298(%rax), %dl movb 298(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 299(%rax), %dl movb 299(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 300(%rax), %dl movb 300(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 301(%rax), %dl movb 301(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 302(%rax), %dl movb 302(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 303(%rax), %dl movb 303(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 304(%rax), %dl movb 304(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 305(%rax), %dl movb 305(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 306(%rax), %dl movb 306(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 307(%rax), %dl movb 307(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 308(%rax), %dl movb 308(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 309(%rax), %dl movb 309(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 310(%rax), %dl movb 310(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 311(%rax), %dl movb 311(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 312(%rax), %dl movb 312(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 313(%rax), %dl movb 313(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 314(%rax), %dl movb 314(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 315(%rax), %dl movb 315(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 316(%rax), %dl movb 316(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 317(%rax), %dl movb 317(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 318(%rax), %dl movb 318(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 319(%rax), %dl movb 319(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 320(%rax), %dl movb 320(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 321(%rax), %dl movb 321(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 322(%rax), %dl movb 322(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 323(%rax), %dl movb 323(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 324(%rax), %dl movb 324(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 325(%rax), %dl movb 325(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 326(%rax), %dl movb 326(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 327(%rax), %dl movb 327(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 328(%rax), %dl movb 328(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 329(%rax), %dl movb 329(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 330(%rax), %dl movb 330(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 331(%rax), %dl movb 331(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 332(%rax), %dl movb 332(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 333(%rax), %dl movb 333(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 334(%rax), %dl movb 334(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 335(%rax), %dl movb 335(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 336(%rax), %dl movb 336(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 337(%rax), %dl movb 337(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 338(%rax), %dl movb 338(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 339(%rax), %dl movb 339(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 340(%rax), %dl movb 340(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 341(%rax), %dl movb 341(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 342(%rax), %dl movb 342(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 343(%rax), %dl movb 343(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 344(%rax), %dl movb 344(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 345(%rax), %dl movb 345(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 346(%rax), %dl movb 346(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 347(%rax), %dl movb 347(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 348(%rax), %dl movb 348(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 349(%rax), %dl movb 349(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 350(%rax), %dl movb 350(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 351(%rax), %dl movb 351(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 352(%rax), %dl movb 352(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 353(%rax), %dl movb 353(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 354(%rax), %dl movb 354(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 355(%rax), %dl movb 355(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 356(%rax), %dl movb 356(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 357(%rax), %dl movb 357(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 358(%rax), %dl movb 358(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 359(%rax), %dl movb 359(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 360(%rax), %dl movb 360(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 361(%rax), %dl movb 361(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 362(%rax), %dl movb 362(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 363(%rax), %dl movb 363(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 364(%rax), %dl movb 364(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 365(%rax), %dl movb 365(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 366(%rax), %dl movb 366(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 367(%rax), %dl movb 367(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 368(%rax), %dl movb 368(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 369(%rax), %dl movb 369(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 370(%rax), %dl movb 370(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 371(%rax), %dl movb 371(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 372(%rax), %dl movb 372(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 373(%rax), %dl movb 373(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 374(%rax), %dl movb 374(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 375(%rax), %dl movb 375(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 376(%rax), %dl movb 376(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 377(%rax), %dl movb 377(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 378(%rax), %dl movb 378(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 379(%rax), %dl movb 379(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 380(%rax), %dl movb 380(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 381(%rax), %dl movb 381(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 382(%rax), %dl movb 382(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 383(%rax), %dl movb 383(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 384(%rax), %dl movb 384(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 385(%rax), %dl movb 385(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 386(%rax), %dl movb 386(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 387(%rax), %dl movb 387(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 388(%rax), %dl movb 388(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 389(%rax), %dl movb 389(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 390(%rax), %dl movb 390(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 391(%rax), %dl movb 391(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 392(%rax), %dl movb 392(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 393(%rax), %dl movb 393(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 394(%rax), %dl movb 394(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 395(%rax), %dl movb 395(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 396(%rax), %dl movb 396(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 397(%rax), %dl movb 397(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 398(%rax), %dl movb 398(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 399(%rax), %dl movb 399(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 400(%rax), %dl movb 400(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 401(%rax), %dl movb 401(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 402(%rax), %dl movb 402(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 403(%rax), %dl movb 403(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 404(%rax), %dl movb 404(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 405(%rax), %dl movb 405(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 406(%rax), %dl movb 406(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 407(%rax), %dl movb 407(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 408(%rax), %dl movb 408(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 409(%rax), %dl movb 409(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 410(%rax), %dl movb 410(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 411(%rax), %dl movb 411(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 412(%rax), %dl movb 412(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 413(%rax), %dl movb 413(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 414(%rax), %dl movb 414(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 415(%rax), %dl movb 415(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 416(%rax), %dl movb 416(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 417(%rax), %dl movb 417(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 418(%rax), %dl movb 418(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 419(%rax), %dl movb 419(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 420(%rax), %dl movb 420(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 421(%rax), %dl movb 421(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 422(%rax), %dl movb 422(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 423(%rax), %dl movb 423(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 424(%rax), %dl movb 424(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 425(%rax), %dl movb 425(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 426(%rax), %dl movb 426(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 427(%rax), %dl movb 427(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 428(%rax), %dl movb 428(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 429(%rax), %dl movb 429(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 430(%rax), %dl movb 430(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 431(%rax), %dl movb 431(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 432(%rax), %dl movb 432(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 433(%rax), %dl movb 433(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 434(%rax), %dl movb 434(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 435(%rax), %dl movb 435(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 436(%rax), %dl movb 436(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 437(%rax), %dl movb 437(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 438(%rax), %dl movb 438(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 439(%rax), %dl movb 439(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 440(%rax), %dl movb 440(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 441(%rax), %dl movb 441(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 442(%rax), %dl movb 442(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 443(%rax), %dl movb 443(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 444(%rax), %dl movb 444(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 445(%rax), %dl movb 445(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 446(%rax), %dl movb 446(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 447(%rax), %dl movb 447(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 448(%rax), %dl movb 448(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 449(%rax), %dl movb 449(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 450(%rax), %dl movb 450(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 451(%rax), %dl movb 451(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 452(%rax), %dl movb 452(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 453(%rax), %dl movb 453(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 454(%rax), %dl movb 454(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 455(%rax), %dl movb 455(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 456(%rax), %dl movb 456(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 457(%rax), %dl movb 457(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 458(%rax), %dl movb 458(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 459(%rax), %dl movb 459(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 460(%rax), %dl movb 460(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 461(%rax), %dl movb 461(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 462(%rax), %dl movb 462(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 463(%rax), %dl movb 463(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 464(%rax), %dl movb 464(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 465(%rax), %dl movb 465(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 466(%rax), %dl movb 466(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 467(%rax), %dl movb 467(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 468(%rax), %dl movb 468(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 469(%rax), %dl movb 469(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 470(%rax), %dl movb 470(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 471(%rax), %dl movb 471(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 472(%rax), %dl movb 472(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 473(%rax), %dl movb 473(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 474(%rax), %dl movb 474(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 475(%rax), %dl movb 475(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 476(%rax), %dl movb 476(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 477(%rax), %dl movb 477(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 478(%rax), %dl movb 478(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 479(%rax), %dl movb 479(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 480(%rax), %dl movb 480(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 481(%rax), %dl movb 481(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 482(%rax), %dl movb 482(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 483(%rax), %dl movb 483(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 484(%rax), %dl movb 484(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 485(%rax), %dl movb 485(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 486(%rax), %dl movb 486(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 487(%rax), %dl movb 487(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 488(%rax), %dl movb 488(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 489(%rax), %dl movb 489(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 490(%rax), %dl movb 490(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 491(%rax), %dl movb 491(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 492(%rax), %dl movb 492(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 493(%rax), %dl movb 493(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 494(%rax), %dl movb 494(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 495(%rax), %dl movb 495(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 496(%rax), %dl movb 496(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 497(%rax), %dl movb 497(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 498(%rax), %dl movb 498(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 499(%rax), %dl movb 499(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 500(%rax), %dl movb 500(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 501(%rax), %dl movb 501(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 502(%rax), %dl movb 502(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 503(%rax), %dl movb 503(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 504(%rax), %dl movb 504(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 505(%rax), %dl movb 505(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 506(%rax), %dl movb 506(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 507(%rax), %dl movb 507(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 508(%rax), %dl movb 508(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 509(%rax), %dl movb 509(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 510(%rax), %dl movb 510(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 511(%rax), %dl movb 511(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 512(%rax), %dl movb 512(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 513(%rax), %dl movb 513(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 514(%rax), %dl movb 514(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 515(%rax), %dl movb 515(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 516(%rax), %dl movb 516(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 517(%rax), %dl movb 517(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 518(%rax), %dl movb 518(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 519(%rax), %dl movb 519(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 520(%rax), %dl movb 520(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 521(%rax), %dl movb 521(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 522(%rax), %dl movb 522(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 523(%rax), %dl movb 523(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 524(%rax), %dl movb 524(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 525(%rax), %dl movb 525(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 526(%rax), %dl movb 526(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 527(%rax), %dl movb 527(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 528(%rax), %dl movb 528(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 529(%rax), %dl movb 529(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 530(%rax), %dl movb 530(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 531(%rax), %dl movb 531(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 532(%rax), %dl movb 532(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 533(%rax), %dl movb 533(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 534(%rax), %dl movb 534(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 535(%rax), %dl movb 535(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 536(%rax), %dl movb 536(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 537(%rax), %dl movb 537(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 538(%rax), %dl movb 538(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 539(%rax), %dl movb 539(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 540(%rax), %dl movb 540(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 541(%rax), %dl movb 541(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 542(%rax), %dl movb 542(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 543(%rax), %dl movb 543(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 544(%rax), %dl movb 544(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 545(%rax), %dl movb 545(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 546(%rax), %dl movb 546(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 547(%rax), %dl movb 547(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 548(%rax), %dl movb 548(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 549(%rax), %dl movb 549(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 550(%rax), %dl movb 550(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 551(%rax), %dl movb 551(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 552(%rax), %dl movb 552(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 553(%rax), %dl movb 553(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 554(%rax), %dl movb 554(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 555(%rax), %dl movb 555(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 556(%rax), %dl movb 556(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 557(%rax), %dl movb 557(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 558(%rax), %dl movb 558(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 559(%rax), %dl movb 559(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 560(%rax), %dl movb 560(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 561(%rax), %dl movb 561(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 562(%rax), %dl movb 562(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 563(%rax), %dl movb 563(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 564(%rax), %dl movb 564(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 565(%rax), %dl movb 565(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 566(%rax), %dl movb 566(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 567(%rax), %dl movb 567(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 568(%rax), %dl movb 568(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 569(%rax), %dl movb 569(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 570(%rax), %dl movb 570(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 571(%rax), %dl movb 571(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 572(%rax), %dl movb 572(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 573(%rax), %dl movb 573(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 574(%rax), %dl movb 574(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 575(%rax), %dl movb 575(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 576(%rax), %dl movb 576(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 577(%rax), %dl movb 577(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 578(%rax), %dl movb 578(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 579(%rax), %dl movb 579(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 580(%rax), %dl movb 580(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 581(%rax), %dl movb 581(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 582(%rax), %dl movb 582(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 583(%rax), %dl movb 583(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 584(%rax), %dl movb 584(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 585(%rax), %dl movb 585(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 586(%rax), %dl movb 586(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 587(%rax), %dl movb 587(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 588(%rax), %dl movb 588(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 589(%rax), %dl movb 589(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 590(%rax), %dl movb 590(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 591(%rax), %dl movb 591(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 592(%rax), %dl movb 592(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 593(%rax), %dl movb 593(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 594(%rax), %dl movb 594(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 595(%rax), %dl movb 595(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 596(%rax), %dl movb 596(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 597(%rax), %dl movb 597(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 598(%rax), %dl movb 598(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 599(%rax), %dl movb 599(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 600(%rax), %dl movb 600(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 601(%rax), %dl movb 601(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 602(%rax), %dl movb 602(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 603(%rax), %dl movb 603(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 604(%rax), %dl movb 604(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 605(%rax), %dl movb 605(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 606(%rax), %dl movb 606(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 607(%rax), %dl movb 607(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 608(%rax), %dl movb 608(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 609(%rax), %dl movb 609(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 610(%rax), %dl movb 610(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 611(%rax), %dl movb 611(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 612(%rax), %dl movb 612(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 613(%rax), %dl movb 613(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 614(%rax), %dl movb 614(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 615(%rax), %dl movb 615(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 616(%rax), %dl movb 616(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 617(%rax), %dl movb 617(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 618(%rax), %dl movb 618(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 619(%rax), %dl movb 619(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 620(%rax), %dl movb 620(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 621(%rax), %dl movb 621(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 622(%rax), %dl movb 622(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 623(%rax), %dl movb 623(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 624(%rax), %dl movb 624(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 625(%rax), %dl movb 625(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 626(%rax), %dl movb 626(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 627(%rax), %dl movb 627(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 628(%rax), %dl movb 628(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 629(%rax), %dl movb 629(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 630(%rax), %dl movb 630(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 631(%rax), %dl movb 631(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 632(%rax), %dl movb 632(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 633(%rax), %dl movb 633(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 634(%rax), %dl movb 634(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 635(%rax), %dl movb 635(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 636(%rax), %dl movb 636(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 637(%rax), %dl movb 637(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 638(%rax), %dl movb 638(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 639(%rax), %dl movb 639(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 640(%rax), %dl movb 640(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 641(%rax), %dl movb 641(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 642(%rax), %dl movb 642(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 643(%rax), %dl movb 643(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 644(%rax), %dl movb 644(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 645(%rax), %dl movb 645(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 646(%rax), %dl movb 646(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 647(%rax), %dl movb 647(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 648(%rax), %dl movb 648(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 649(%rax), %dl movb 649(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 650(%rax), %dl movb 650(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 651(%rax), %dl movb 651(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 652(%rax), %dl movb 652(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 653(%rax), %dl movb 653(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 654(%rax), %dl movb 654(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 655(%rax), %dl movb 655(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 656(%rax), %dl movb 656(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 657(%rax), %dl movb 657(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 658(%rax), %dl movb 658(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 659(%rax), %dl movb 659(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 660(%rax), %dl movb 660(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 661(%rax), %dl movb 661(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 662(%rax), %dl movb 662(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 663(%rax), %dl movb 663(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 664(%rax), %dl movb 664(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 665(%rax), %dl movb 665(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 666(%rax), %dl movb 666(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 667(%rax), %dl movb 667(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 668(%rax), %dl movb 668(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 669(%rax), %dl movb 669(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 670(%rax), %dl movb 670(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 671(%rax), %dl movb 671(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 672(%rax), %dl movb 672(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 673(%rax), %dl movb 673(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 674(%rax), %dl movb 674(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 675(%rax), %dl movb 675(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 676(%rax), %dl movb 676(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 677(%rax), %dl movb 677(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 678(%rax), %dl movb 678(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 679(%rax), %dl movb 679(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 680(%rax), %dl movb 680(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 681(%rax), %dl movb 681(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 682(%rax), %dl movb 682(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 683(%rax), %dl movb 683(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 684(%rax), %dl movb 684(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 685(%rax), %dl movb 685(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 686(%rax), %dl movb 686(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 687(%rax), %dl movb 687(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 688(%rax), %dl movb 688(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 689(%rax), %dl movb 689(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 690(%rax), %dl movb 690(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 691(%rax), %dl movb 691(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 692(%rax), %dl movb 692(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 693(%rax), %dl movb 693(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 694(%rax), %dl movb 694(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 695(%rax), %dl movb 695(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 696(%rax), %dl movb 696(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 697(%rax), %dl movb 697(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 698(%rax), %dl movb 698(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 699(%rax), %dl movb 699(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 700(%rax), %dl movb 700(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 701(%rax), %dl movb 701(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 702(%rax), %dl movb 702(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 703(%rax), %dl movb 703(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 704(%rax), %dl movb 704(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 705(%rax), %dl movb 705(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 706(%rax), %dl movb 706(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 707(%rax), %dl movb 707(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 708(%rax), %dl movb 708(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 709(%rax), %dl movb 709(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 710(%rax), %dl movb 710(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 711(%rax), %dl movb 711(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 712(%rax), %dl movb 712(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 713(%rax), %dl movb 713(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 714(%rax), %dl movb 714(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 715(%rax), %dl movb 715(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 716(%rax), %dl movb 716(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 717(%rax), %dl movb 717(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 718(%rax), %dl movb 718(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 719(%rax), %dl movb 719(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 720(%rax), %dl movb 720(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 721(%rax), %dl movb 721(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 722(%rax), %dl movb 722(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 723(%rax), %dl movb 723(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 724(%rax), %dl movb 724(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 725(%rax), %dl movb 725(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 726(%rax), %dl movb 726(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 727(%rax), %dl movb 727(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 728(%rax), %dl movb 728(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 729(%rax), %dl movb 729(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 730(%rax), %dl movb 730(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 731(%rax), %dl movb 731(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 732(%rax), %dl movb 732(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 733(%rax), %dl movb 733(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 734(%rax), %dl movb 734(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 735(%rax), %dl movb 735(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 736(%rax), %dl movb 736(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 737(%rax), %dl movb 737(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 738(%rax), %dl movb 738(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 739(%rax), %dl movb 739(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 740(%rax), %dl movb 740(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 741(%rax), %dl movb 741(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 742(%rax), %dl movb 742(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 743(%rax), %dl movb 743(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 744(%rax), %dl movb 744(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 745(%rax), %dl movb 745(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 746(%rax), %dl movb 746(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 747(%rax), %dl movb 747(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 748(%rax), %dl movb 748(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 749(%rax), %dl movb 749(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 750(%rax), %dl movb 750(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 751(%rax), %dl movb 751(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 752(%rax), %dl movb 752(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 753(%rax), %dl movb 753(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 754(%rax), %dl movb 754(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 755(%rax), %dl movb 755(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 756(%rax), %dl movb 756(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 757(%rax), %dl movb 757(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 758(%rax), %dl movb 758(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 759(%rax), %dl movb 759(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 760(%rax), %dl movb 760(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 761(%rax), %dl movb 761(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 762(%rax), %dl movb 762(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 763(%rax), %dl movb 763(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 764(%rax), %dl movb 764(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 765(%rax), %dl movb 765(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 766(%rax), %dl movb 766(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 767(%rax), %dl movb 767(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 768(%rax), %dl movb 768(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 769(%rax), %dl movb 769(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 770(%rax), %dl movb 770(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 771(%rax), %dl movb 771(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 772(%rax), %dl movb 772(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 773(%rax), %dl movb 773(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 774(%rax), %dl movb 774(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 775(%rax), %dl movb 775(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 776(%rax), %dl movb 776(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 777(%rax), %dl movb 777(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 778(%rax), %dl movb 778(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 779(%rax), %dl movb 779(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 780(%rax), %dl movb 780(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 781(%rax), %dl movb 781(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 782(%rax), %dl movb 782(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 783(%rax), %dl movb 783(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 784(%rax), %dl movb 784(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 785(%rax), %dl movb 785(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 786(%rax), %dl movb 786(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 787(%rax), %dl movb 787(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 788(%rax), %dl movb 788(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 789(%rax), %dl movb 789(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 790(%rax), %dl movb 790(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 791(%rax), %dl movb 791(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 792(%rax), %dl movb 792(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 793(%rax), %dl movb 793(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 794(%rax), %dl movb 794(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 795(%rax), %dl movb 795(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 796(%rax), %dl movb 796(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 797(%rax), %dl movb 797(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 798(%rax), %dl movb 798(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 799(%rax), %dl movb 799(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 800(%rax), %dl movb 800(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 801(%rax), %dl movb 801(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 802(%rax), %dl movb 802(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 803(%rax), %dl movb 803(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 804(%rax), %dl movb 804(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 805(%rax), %dl movb 805(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 806(%rax), %dl movb 806(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 807(%rax), %dl movb 807(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 808(%rax), %dl movb 808(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 809(%rax), %dl movb 809(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 810(%rax), %dl movb 810(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 811(%rax), %dl movb 811(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 812(%rax), %dl movb 812(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 813(%rax), %dl movb 813(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 814(%rax), %dl movb 814(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 815(%rax), %dl movb 815(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 816(%rax), %dl movb 816(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 817(%rax), %dl movb 817(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 818(%rax), %dl movb 818(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 819(%rax), %dl movb 819(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 820(%rax), %dl movb 820(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 821(%rax), %dl movb 821(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 822(%rax), %dl movb 822(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 823(%rax), %dl movb 823(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 824(%rax), %dl movb 824(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 825(%rax), %dl movb 825(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 826(%rax), %dl movb 826(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 827(%rax), %dl movb 827(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 828(%rax), %dl movb 828(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 829(%rax), %dl movb 829(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 830(%rax), %dl movb 830(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 831(%rax), %dl movb 831(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 832(%rax), %dl movb 832(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 833(%rax), %dl movb 833(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 834(%rax), %dl movb 834(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 835(%rax), %dl movb 835(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 836(%rax), %dl movb 836(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 837(%rax), %dl movb 837(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 838(%rax), %dl movb 838(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 839(%rax), %dl movb 839(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 840(%rax), %dl movb 840(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 841(%rax), %dl movb 841(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 842(%rax), %dl movb 842(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 843(%rax), %dl movb 843(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 844(%rax), %dl movb 844(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 845(%rax), %dl movb 845(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 846(%rax), %dl movb 846(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 847(%rax), %dl movb 847(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 848(%rax), %dl movb 848(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 849(%rax), %dl movb 849(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 850(%rax), %dl movb 850(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 851(%rax), %dl movb 851(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 852(%rax), %dl movb 852(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 853(%rax), %dl movb 853(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 854(%rax), %dl movb 854(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 855(%rax), %dl movb 855(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 856(%rax), %dl movb 856(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 857(%rax), %dl movb 857(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 858(%rax), %dl movb 858(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 859(%rax), %dl movb 859(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 860(%rax), %dl movb 860(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 861(%rax), %dl movb 861(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 862(%rax), %dl movb 862(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 863(%rax), %dl movb 863(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 864(%rax), %dl movb 864(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 865(%rax), %dl movb 865(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 866(%rax), %dl movb 866(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 867(%rax), %dl movb 867(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 868(%rax), %dl movb 868(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 869(%rax), %dl movb 869(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 870(%rax), %dl movb 870(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 871(%rax), %dl movb 871(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 872(%rax), %dl movb 872(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 873(%rax), %dl movb 873(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 874(%rax), %dl movb 874(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 875(%rax), %dl movb 875(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 876(%rax), %dl movb 876(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 877(%rax), %dl movb 877(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 878(%rax), %dl movb 878(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 879(%rax), %dl movb 879(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 880(%rax), %dl movb 880(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 881(%rax), %dl movb 881(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 882(%rax), %dl movb 882(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 883(%rax), %dl movb 883(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 884(%rax), %dl movb 884(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 885(%rax), %dl movb 885(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 886(%rax), %dl movb 886(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 887(%rax), %dl movb 887(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 888(%rax), %dl movb 888(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 889(%rax), %dl movb 889(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 890(%rax), %dl movb 890(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 891(%rax), %dl movb 891(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 892(%rax), %dl movb 892(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 893(%rax), %dl movb 893(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 894(%rax), %dl movb 894(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 895(%rax), %dl movb 895(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 896(%rax), %dl movb 896(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 897(%rax), %dl movb 897(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 898(%rax), %dl movb 898(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 899(%rax), %dl movb 899(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 900(%rax), %dl movb 900(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 901(%rax), %dl movb 901(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 902(%rax), %dl movb 902(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 903(%rax), %dl movb 903(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 904(%rax), %dl movb 904(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 905(%rax), %dl movb 905(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 906(%rax), %dl movb 906(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 907(%rax), %dl movb 907(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 908(%rax), %dl movb 908(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 909(%rax), %dl movb 909(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 910(%rax), %dl movb 910(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 911(%rax), %dl movb 911(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 912(%rax), %dl movb 912(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 913(%rax), %dl movb 913(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 914(%rax), %dl movb 914(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 915(%rax), %dl movb 915(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 916(%rax), %dl movb 916(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 917(%rax), %dl movb 917(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 918(%rax), %dl movb 918(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 919(%rax), %dl movb 919(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 920(%rax), %dl movb 920(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 921(%rax), %dl movb 921(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 922(%rax), %dl movb 922(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 923(%rax), %dl movb 923(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 924(%rax), %dl movb 924(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 925(%rax), %dl movb 925(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 926(%rax), %dl movb 926(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 927(%rax), %dl movb 927(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 928(%rax), %dl movb 928(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 929(%rax), %dl movb 929(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 930(%rax), %dl movb 930(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 931(%rax), %dl movb 931(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 932(%rax), %dl movb 932(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 933(%rax), %dl movb 933(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 934(%rax), %dl movb 934(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 935(%rax), %dl movb 935(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 936(%rax), %dl movb 936(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 937(%rax), %dl movb 937(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 938(%rax), %dl movb 938(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 939(%rax), %dl movb 939(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 940(%rax), %dl movb 940(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 941(%rax), %dl movb 941(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 942(%rax), %dl movb 942(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 943(%rax), %dl movb 943(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 944(%rax), %dl movb 944(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 945(%rax), %dl movb 945(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 946(%rax), %dl movb 946(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 947(%rax), %dl movb 947(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 948(%rax), %dl movb 948(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 949(%rax), %dl movb 949(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 950(%rax), %dl movb 950(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 951(%rax), %dl movb 951(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 952(%rax), %dl movb 952(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 953(%rax), %dl movb 953(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 954(%rax), %dl movb 954(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 955(%rax), %dl movb 955(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 956(%rax), %dl movb 956(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 957(%rax), %dl movb 957(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 958(%rax), %dl movb 958(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 959(%rax), %dl movb 959(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 960(%rax), %dl movb 960(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 961(%rax), %dl movb 961(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 962(%rax), %dl movb 962(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 963(%rax), %dl movb 963(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 964(%rax), %dl movb 964(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 965(%rax), %dl movb 965(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 966(%rax), %dl movb 966(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 967(%rax), %dl movb 967(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 968(%rax), %dl movb 968(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 969(%rax), %dl movb 969(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 970(%rax), %dl movb 970(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 971(%rax), %dl movb 971(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 972(%rax), %dl movb 972(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 973(%rax), %dl movb 973(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 974(%rax), %dl movb 974(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 975(%rax), %dl movb 975(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 976(%rax), %dl movb 976(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 977(%rax), %dl movb 977(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 978(%rax), %dl movb 978(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 979(%rax), %dl movb 979(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 980(%rax), %dl movb 980(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 981(%rax), %dl movb 981(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 982(%rax), %dl movb 982(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 983(%rax), %dl movb 983(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 984(%rax), %dl movb 984(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 985(%rax), %dl movb 985(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 986(%rax), %dl movb 986(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 987(%rax), %dl movb 987(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 988(%rax), %dl movb 988(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 989(%rax), %dl movb 989(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 990(%rax), %dl movb 990(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 991(%rax), %dl movb 991(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 992(%rax), %dl movb 992(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 993(%rax), %dl movb 993(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 994(%rax), %dl movb 994(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 995(%rax), %dl movb 995(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 996(%rax), %dl movb 996(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 997(%rax), %dl movb 997(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 998(%rax), %dl movb 998(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 999(%rax), %dl movb 999(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1000(%rax), %dl movb 1000(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1001(%rax), %dl movb 1001(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1002(%rax), %dl movb 1002(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1003(%rax), %dl movb 1003(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1004(%rax), %dl movb 1004(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1005(%rax), %dl movb 1005(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1006(%rax), %dl movb 1006(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1007(%rax), %dl movb 1007(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1008(%rax), %dl movb 1008(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1009(%rax), %dl movb 1009(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1010(%rax), %dl movb 1010(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1011(%rax), %dl movb 1011(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1012(%rax), %dl movb 1012(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1013(%rax), %dl movb 1013(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1014(%rax), %dl movb 1014(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1015(%rax), %dl movb 1015(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1016(%rax), %dl movb 1016(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1017(%rax), %dl movb 1017(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1018(%rax), %dl movb 1018(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1019(%rax), %dl movb 1019(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1020(%rax), %dl movb 1020(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1021(%rax), %dl movb 1021(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1022(%rax), %dl movb 1022(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1023(%rax), %dl movb 1023(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1024(%rax), %dl movb 1024(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1025(%rax), %dl movb 1025(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1026(%rax), %dl movb 1026(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1027(%rax), %dl movb 1027(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1028(%rax), %dl movb 1028(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1029(%rax), %dl movb 1029(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1030(%rax), %dl movb 1030(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1031(%rax), %dl movb 1031(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1032(%rax), %dl movb 1032(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1033(%rax), %dl movb 1033(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1034(%rax), %dl movb 1034(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1035(%rax), %dl movb 1035(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1036(%rax), %dl movb 1036(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1037(%rax), %dl movb 1037(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1038(%rax), %dl movb 1038(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1039(%rax), %dl movb 1039(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1040(%rax), %dl movb 1040(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1041(%rax), %dl movb 1041(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1042(%rax), %dl movb 1042(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1043(%rax), %dl movb 1043(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1044(%rax), %dl movb 1044(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1045(%rax), %dl movb 1045(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1046(%rax), %dl movb 1046(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1047(%rax), %dl movb 1047(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1048(%rax), %dl movb 1048(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1049(%rax), %dl movb 1049(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1050(%rax), %dl movb 1050(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1051(%rax), %dl movb 1051(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1052(%rax), %dl movb 1052(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1053(%rax), %dl movb 1053(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1054(%rax), %dl movb 1054(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1055(%rax), %dl movb 1055(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1056(%rax), %dl movb 1056(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1057(%rax), %dl movb 1057(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1058(%rax), %dl movb 1058(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1059(%rax), %dl movb 1059(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1060(%rax), %dl movb 1060(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1061(%rax), %dl movb 1061(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1062(%rax), %dl movb 1062(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1063(%rax), %dl movb 1063(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1064(%rax), %dl movb 1064(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1065(%rax), %dl movb 1065(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1066(%rax), %dl movb 1066(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1067(%rax), %dl movb 1067(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1068(%rax), %dl movb 1068(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1069(%rax), %dl movb 1069(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1070(%rax), %dl movb 1070(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1071(%rax), %dl movb 1071(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1072(%rax), %dl movb 1072(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1073(%rax), %dl movb 1073(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1074(%rax), %dl movb 1074(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1075(%rax), %dl movb 1075(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1076(%rax), %dl movb 1076(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1077(%rax), %dl movb 1077(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1078(%rax), %dl movb 1078(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1079(%rax), %dl movb 1079(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1080(%rax), %dl movb 1080(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1081(%rax), %dl movb 1081(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1082(%rax), %dl movb 1082(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1083(%rax), %dl movb 1083(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1084(%rax), %dl movb 1084(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1085(%rax), %dl movb 1085(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1086(%rax), %dl movb 1086(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1087(%rax), %al movb 1087(%rsi), %dl xorb %dl, %al movzbq %al, %rax orq %rax, %rcx negq %rcx shrq $63, %rcx movq 16(%rsp), %rax addq $64, %rax addq $2304, %rax leaq 144(%rsp), %rdx negq %rcx movb (%rdx), %dil movb (%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, (%rdx) movb 1(%rdx), %dil movb 1(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 1(%rdx) movb 2(%rdx), %dil movb 2(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 2(%rdx) movb 3(%rdx), %dil movb 3(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 3(%rdx) movb 4(%rdx), %dil movb 4(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 4(%rdx) movb 5(%rdx), %dil movb 5(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 5(%rdx) movb 6(%rdx), %dil movb 6(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 6(%rdx) movb 7(%rdx), %dil movb 7(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 7(%rdx) movb 8(%rdx), %dil movb 8(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 8(%rdx) movb 9(%rdx), %dil movb 9(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 9(%rdx) movb 10(%rdx), %dil movb 10(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 10(%rdx) movb 11(%rdx), %dil movb 11(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 11(%rdx) movb 12(%rdx), %dil movb 12(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 12(%rdx) movb 13(%rdx), %dil movb 13(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 13(%rdx) movb 14(%rdx), %dil movb 14(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 14(%rdx) movb 15(%rdx), %dil movb 15(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 15(%rdx) movb 16(%rdx), %dil movb 16(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 16(%rdx) movb 17(%rdx), %dil movb 17(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 17(%rdx) movb 18(%rdx), %dil movb 18(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 18(%rdx) movb 19(%rdx), %dil movb 19(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 19(%rdx) movb 20(%rdx), %dil movb 20(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 20(%rdx) movb 21(%rdx), %dil movb 21(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 21(%rdx) movb 22(%rdx), %dil movb 22(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 22(%rdx) movb 23(%rdx), %dil movb 23(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 23(%rdx) movb 24(%rdx), %dil movb 24(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 24(%rdx) movb 25(%rdx), %dil movb 25(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 25(%rdx) movb 26(%rdx), %dil movb 26(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 26(%rdx) movb 27(%rdx), %dil movb 27(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 27(%rdx) movb 28(%rdx), %dil movb 28(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 28(%rdx) movb 29(%rdx), %dil movb 29(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 29(%rdx) movb 30(%rdx), %dil movb 30(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 30(%rdx) movb 31(%rdx), %dil movb 31(%rax), %al xorb %dil, %al andb %cl, %al xorb %al, %dil movb %dil, 31(%rdx) movq $1088, %rax leaq 176(%rsp), %rcx leaq -232(%rsp), %rsp call L_sha3_256$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$2: leaq 232(%rsp), %rsp movq (%rsp), %rax movq $32, %rcx leaq 144(%rsp), %rdx leaq -216(%rsp), %rsp call L_shake256_64$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$1: leaq 216(%rsp), %rsp xorq %rax, %rax movq 14504(%rsp), %r15 movq 14512(%rsp), %r14 movq 14520(%rsp), %r13 movq 14528(%rsp), %r12 movq 14536(%rsp), %rbp movq 14544(%rsp), %rbx movq 14552(%rsp), %rsp ret _jade_kem_kyber_kyber768_amd64_ref_enc_derand: jade_kem_kyber_kyber768_amd64_ref_enc_derand: movq %rsp, %rax leaq -88(%rsp), %rsp andq $-8, %rsp movq %rax, 80(%rsp) movq %r15, 32(%rsp) movq %r14, 40(%rsp) movq %r13, 48(%rsp) movq %r12, 56(%rsp) movq %rbp, 64(%rsp) movq %rbx, 72(%rsp) movq %rsp, %rax movb (%rcx), %r8b movb %r8b, (%rax) movb 1(%rcx), %r8b movb %r8b, 1(%rax) movb 2(%rcx), %r8b movb %r8b, 2(%rax) movb 3(%rcx), %r8b movb %r8b, 3(%rax) movb 4(%rcx), %r8b movb %r8b, 4(%rax) movb 5(%rcx), %r8b movb %r8b, 5(%rax) movb 6(%rcx), %r8b movb %r8b, 6(%rax) movb 7(%rcx), %r8b movb %r8b, 7(%rax) movb 8(%rcx), %r8b movb %r8b, 8(%rax) movb 9(%rcx), %r8b movb %r8b, 9(%rax) movb 10(%rcx), %r8b movb %r8b, 10(%rax) movb 11(%rcx), %r8b movb %r8b, 11(%rax) movb 12(%rcx), %r8b movb %r8b, 12(%rax) movb 13(%rcx), %r8b movb %r8b, 13(%rax) movb 14(%rcx), %r8b movb %r8b, 14(%rax) movb 15(%rcx), %r8b movb %r8b, 15(%rax) movb 16(%rcx), %r8b movb %r8b, 16(%rax) movb 17(%rcx), %r8b movb %r8b, 17(%rax) movb 18(%rcx), %r8b movb %r8b, 18(%rax) movb 19(%rcx), %r8b movb %r8b, 19(%rax) movb 20(%rcx), %r8b movb %r8b, 20(%rax) movb 21(%rcx), %r8b movb %r8b, 21(%rax) movb 22(%rcx), %r8b movb %r8b, 22(%rax) movb 23(%rcx), %r8b movb %r8b, 23(%rax) movb 24(%rcx), %r8b movb %r8b, 24(%rax) movb 25(%rcx), %r8b movb %r8b, 25(%rax) movb 26(%rcx), %r8b movb %r8b, 26(%rax) movb 27(%rcx), %r8b movb %r8b, 27(%rax) movb 28(%rcx), %r8b movb %r8b, 28(%rax) movb 29(%rcx), %r8b movb %r8b, 29(%rax) movb 30(%rcx), %r8b movb %r8b, 30(%rax) movb 31(%rcx), %cl movb %cl, 31(%rax) movq %rsp, %rax leaq -13400(%rsp), %rsp call L_crypto_kem_enc_derand_jazz$1 Ljade_kem_kyber_kyber768_amd64_ref_enc_derand$1: leaq 13400(%rsp), %rsp xorq %rax, %rax movq 32(%rsp), %r15 movq 40(%rsp), %r14 movq 48(%rsp), %r13 movq 56(%rsp), %r12 movq 64(%rsp), %rbp movq 72(%rsp), %rbx movq 80(%rsp), %rsp ret _jade_kem_kyber_kyber768_amd64_ref_keypair_derand: jade_kem_kyber_kyber768_amd64_ref_keypair_derand: movq %rsp, %rax leaq -120(%rsp), %rsp andq $-8, %rsp movq %rax, 112(%rsp) movq %r15, 64(%rsp) movq %r14, 72(%rsp) movq %r13, 80(%rsp) movq %r12, 88(%rsp) movq %rbp, 96(%rsp) movq %rbx, 104(%rsp) movq %rsp, %rax movb (%rdx), %cl movb %cl, (%rax) movb 1(%rdx), %cl movb %cl, 1(%rax) movb 2(%rdx), %cl movb %cl, 2(%rax) movb 3(%rdx), %cl movb %cl, 3(%rax) movb 4(%rdx), %cl movb %cl, 4(%rax) movb 5(%rdx), %cl movb %cl, 5(%rax) movb 6(%rdx), %cl movb %cl, 6(%rax) movb 7(%rdx), %cl movb %cl, 7(%rax) movb 8(%rdx), %cl movb %cl, 8(%rax) movb 9(%rdx), %cl movb %cl, 9(%rax) movb 10(%rdx), %cl movb %cl, 10(%rax) movb 11(%rdx), %cl movb %cl, 11(%rax) movb 12(%rdx), %cl movb %cl, 12(%rax) movb 13(%rdx), %cl movb %cl, 13(%rax) movb 14(%rdx), %cl movb %cl, 14(%rax) movb 15(%rdx), %cl movb %cl, 15(%rax) movb 16(%rdx), %cl movb %cl, 16(%rax) movb 17(%rdx), %cl movb %cl, 17(%rax) movb 18(%rdx), %cl movb %cl, 18(%rax) movb 19(%rdx), %cl movb %cl, 19(%rax) movb 20(%rdx), %cl movb %cl, 20(%rax) movb 21(%rdx), %cl movb %cl, 21(%rax) movb 22(%rdx), %cl movb %cl, 22(%rax) movb 23(%rdx), %cl movb %cl, 23(%rax) movb 24(%rdx), %cl movb %cl, 24(%rax) movb 25(%rdx), %cl movb %cl, 25(%rax) movb 26(%rdx), %cl movb %cl, 26(%rax) movb 27(%rdx), %cl movb %cl, 27(%rax) movb 28(%rdx), %cl movb %cl, 28(%rax) movb 29(%rdx), %cl movb %cl, 29(%rax) movb 30(%rdx), %cl movb %cl, 30(%rax) movb 31(%rdx), %cl movb %cl, 31(%rax) movb 32(%rdx), %cl movb %cl, 32(%rax) movb 33(%rdx), %cl movb %cl, 33(%rax) movb 34(%rdx), %cl movb %cl, 34(%rax) movb 35(%rdx), %cl movb %cl, 35(%rax) movb 36(%rdx), %cl movb %cl, 36(%rax) movb 37(%rdx), %cl movb %cl, 37(%rax) movb 38(%rdx), %cl movb %cl, 38(%rax) movb 39(%rdx), %cl movb %cl, 39(%rax) movb 40(%rdx), %cl movb %cl, 40(%rax) movb 41(%rdx), %cl movb %cl, 41(%rax) movb 42(%rdx), %cl movb %cl, 42(%rax) movb 43(%rdx), %cl movb %cl, 43(%rax) movb 44(%rdx), %cl movb %cl, 44(%rax) movb 45(%rdx), %cl movb %cl, 45(%rax) movb 46(%rdx), %cl movb %cl, 46(%rax) movb 47(%rdx), %cl movb %cl, 47(%rax) movb 48(%rdx), %cl movb %cl, 48(%rax) movb 49(%rdx), %cl movb %cl, 49(%rax) movb 50(%rdx), %cl movb %cl, 50(%rax) movb 51(%rdx), %cl movb %cl, 51(%rax) movb 52(%rdx), %cl movb %cl, 52(%rax) movb 53(%rdx), %cl movb %cl, 53(%rax) movb 54(%rdx), %cl movb %cl, 54(%rax) movb 55(%rdx), %cl movb %cl, 55(%rax) movb 56(%rdx), %cl movb %cl, 56(%rax) movb 57(%rdx), %cl movb %cl, 57(%rax) movb 58(%rdx), %cl movb %cl, 58(%rax) movb 59(%rdx), %cl movb %cl, 59(%rax) movb 60(%rdx), %cl movb %cl, 60(%rax) movb 61(%rdx), %cl movb %cl, 61(%rax) movb 62(%rdx), %cl movb %cl, 62(%rax) movb 63(%rdx), %cl movb %cl, 63(%rax) movq %rsp, %rax leaq -10320(%rsp), %rsp call L_crypto_kem_keypair_derand_jazz$1 Ljade_kem_kyber_kyber768_amd64_ref_keypair_derand$1: leaq 10320(%rsp), %rsp xorq %rax, %rax movq 64(%rsp), %r15 movq 72(%rsp), %r14 movq 80(%rsp), %r13 movq 88(%rsp), %r12 movq 96(%rsp), %rbp movq 104(%rsp), %rbx movq 112(%rsp), %rsp ret L_crypto_kem_enc_derand_jazz$1: movq %rdx, 8(%rsp) movq %rdi, 16(%rsp) movq %rsi, 24(%rsp) movq (%rax), %rcx movq %rcx, 72(%rsp) movq 8(%rax), %rcx movq %rcx, 80(%rsp) movq 16(%rax), %rcx movq %rcx, 88(%rsp) movq 24(%rax), %rax movq %rax, 96(%rsp) leaq 136(%rsp), %rax leaq 72(%rsp), %rdx leaq -208(%rsp), %rsp call L_sha3_256_32$1 L_crypto_kem_enc_derand_jazz$208: leaq 208(%rsp), %rsp movq 8(%rsp), %rsi movq $1184, %rax leaq 168(%rsp), %rcx leaq -232(%rsp), %rsp call L_sha3_256$1 L_crypto_kem_enc_derand_jazz$207: leaq 232(%rsp), %rsp leaq 72(%rsp), %rax leaq 136(%rsp), %rdx leaq -208(%rsp), %rsp call L_sha3_512_64$1 L_crypto_kem_enc_derand_jazz$206: leaq 208(%rsp), %rsp movq 8(%rsp), %rdx leaq 136(%rsp), %rcx leaq 104(%rsp), %rax movq %rdx, %rsi leaq 2448(%rsp), %rdi call L_poly_frombytes$1 L_crypto_kem_enc_derand_jazz$205: addq $384, %rsi leaq 2960(%rsp), %rdi call L_poly_frombytes$1 L_crypto_kem_enc_derand_jazz$204: addq $384, %rsi leaq 3472(%rsp), %rdi call L_poly_frombytes$1 L_crypto_kem_enc_derand_jazz$203: movq $0, %rsi addq $1152, %rdx jmp L_crypto_kem_enc_derand_jazz$201 L_crypto_kem_enc_derand_jazz$202: movq (%rdx), %rdi movq %rdi, 40(%rsp,%rsi,8) addq $8, %rdx incq %rsi L_crypto_kem_enc_derand_jazz$201: cmpq $4, %rsi jb L_crypto_kem_enc_derand_jazz$202 leaq 912(%rsp), %rdx call L_i_poly_frommsg$1 L_crypto_kem_enc_derand_jazz$200: movq $1, %rcx movq %rcx, 8(%rsp) movb 40(%rsp), %cl movb %cl, 13200(%rsp) movb 41(%rsp), %cl movb %cl, 13201(%rsp) movb 42(%rsp), %cl movb %cl, 13202(%rsp) movb 43(%rsp), %cl movb %cl, 13203(%rsp) movb 44(%rsp), %cl movb %cl, 13204(%rsp) movb 45(%rsp), %cl movb %cl, 13205(%rsp) movb 46(%rsp), %cl movb %cl, 13206(%rsp) movb 47(%rsp), %cl movb %cl, 13207(%rsp) movb 48(%rsp), %cl movb %cl, 13208(%rsp) movb 49(%rsp), %cl movb %cl, 13209(%rsp) movb 50(%rsp), %cl movb %cl, 13210(%rsp) movb 51(%rsp), %cl movb %cl, 13211(%rsp) movb 52(%rsp), %cl movb %cl, 13212(%rsp) movb 53(%rsp), %cl movb %cl, 13213(%rsp) movb 54(%rsp), %cl movb %cl, 13214(%rsp) movb 55(%rsp), %cl movb %cl, 13215(%rsp) movb 56(%rsp), %cl movb %cl, 13216(%rsp) movb 57(%rsp), %cl movb %cl, 13217(%rsp) movb 58(%rsp), %cl movb %cl, 13218(%rsp) movb 59(%rsp), %cl movb %cl, 13219(%rsp) movb 60(%rsp), %cl movb %cl, 13220(%rsp) movb 61(%rsp), %cl movb %cl, 13221(%rsp) movb 62(%rsp), %cl movb %cl, 13222(%rsp) movb 63(%rsp), %cl movb %cl, 13223(%rsp) movb 64(%rsp), %cl movb %cl, 13224(%rsp) movb 65(%rsp), %cl movb %cl, 13225(%rsp) movb 66(%rsp), %cl movb %cl, 13226(%rsp) movb 67(%rsp), %cl movb %cl, 13227(%rsp) movb 68(%rsp), %cl movb %cl, 13228(%rsp) movb 69(%rsp), %cl movb %cl, 13229(%rsp) movb 70(%rsp), %cl movb %cl, 13230(%rsp) movb 71(%rsp), %cl movb %cl, 13231(%rsp) movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$198 movb $0, 13232(%rsp) movb $0, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$199 L_crypto_kem_enc_derand_jazz$198: movb $0, 13232(%rsp) movb $0, 13233(%rsp) L_crypto_kem_enc_derand_jazz$199: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$197: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$195 L_crypto_kem_enc_derand_jazz$196: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$195: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$196 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$187 L_crypto_kem_enc_derand_jazz$188: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$194: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$189: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$192 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$192 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$193: L_crypto_kem_enc_derand_jazz$192: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$190 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$190 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$191: L_crypto_kem_enc_derand_jazz$190: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$189 L_crypto_kem_enc_derand_jazz$187: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$188 movq $0, %rcx movq $0, %rdx jmp L_crypto_kem_enc_derand_jazz$185 L_crypto_kem_enc_derand_jazz$186: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$185: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$186 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$183 movb $0, 13232(%rsp) movb $1, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$184 L_crypto_kem_enc_derand_jazz$183: movb $1, 13232(%rsp) movb $0, 13233(%rsp) L_crypto_kem_enc_derand_jazz$184: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$182: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$180 L_crypto_kem_enc_derand_jazz$181: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$180: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$181 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$172 L_crypto_kem_enc_derand_jazz$173: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$179: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$174: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$177 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$177 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$178: L_crypto_kem_enc_derand_jazz$177: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$175 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$175 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$176: L_crypto_kem_enc_derand_jazz$175: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$174 L_crypto_kem_enc_derand_jazz$172: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$173 movq $0, %rcx movq $256, %rdx jmp L_crypto_kem_enc_derand_jazz$170 L_crypto_kem_enc_derand_jazz$171: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$170: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$171 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$168 movb $0, 13232(%rsp) movb $2, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$169 L_crypto_kem_enc_derand_jazz$168: movb $2, 13232(%rsp) movb $0, 13233(%rsp) L_crypto_kem_enc_derand_jazz$169: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$167: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$165 L_crypto_kem_enc_derand_jazz$166: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$165: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$166 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$157 L_crypto_kem_enc_derand_jazz$158: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$164: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$159: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$162 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$162 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$163: L_crypto_kem_enc_derand_jazz$162: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$160 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$160 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$161: L_crypto_kem_enc_derand_jazz$160: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$159 L_crypto_kem_enc_derand_jazz$157: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$158 movq $0, %rcx movq $512, %rdx jmp L_crypto_kem_enc_derand_jazz$155 L_crypto_kem_enc_derand_jazz$156: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$155: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$156 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$153 movb $1, 13232(%rsp) movb $0, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$154 L_crypto_kem_enc_derand_jazz$153: movb $0, 13232(%rsp) movb $1, 13233(%rsp) L_crypto_kem_enc_derand_jazz$154: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$152: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$150 L_crypto_kem_enc_derand_jazz$151: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$150: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$151 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$142 L_crypto_kem_enc_derand_jazz$143: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$149: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$144: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$147 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$147 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$148: L_crypto_kem_enc_derand_jazz$147: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$145 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$145 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$146: L_crypto_kem_enc_derand_jazz$145: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$144 L_crypto_kem_enc_derand_jazz$142: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$143 movq $0, %rcx movq $768, %rdx jmp L_crypto_kem_enc_derand_jazz$140 L_crypto_kem_enc_derand_jazz$141: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$140: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$141 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$138 movb $1, 13232(%rsp) movb $1, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$139 L_crypto_kem_enc_derand_jazz$138: movb $1, 13232(%rsp) movb $1, 13233(%rsp) L_crypto_kem_enc_derand_jazz$139: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$137: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$135 L_crypto_kem_enc_derand_jazz$136: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$135: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$136 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$127 L_crypto_kem_enc_derand_jazz$128: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$134: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$129: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$132 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$132 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$133: L_crypto_kem_enc_derand_jazz$132: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$130 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$130 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$131: L_crypto_kem_enc_derand_jazz$130: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$129 L_crypto_kem_enc_derand_jazz$127: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$128 movq $0, %rcx movq $1024, %rdx jmp L_crypto_kem_enc_derand_jazz$125 L_crypto_kem_enc_derand_jazz$126: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$125: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$126 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$123 movb $1, 13232(%rsp) movb $2, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$124 L_crypto_kem_enc_derand_jazz$123: movb $2, 13232(%rsp) movb $1, 13233(%rsp) L_crypto_kem_enc_derand_jazz$124: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$122: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$120 L_crypto_kem_enc_derand_jazz$121: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$120: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$121 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$112 L_crypto_kem_enc_derand_jazz$113: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$119: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$114: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$117 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$117 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$118: L_crypto_kem_enc_derand_jazz$117: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$115 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$115 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$116: L_crypto_kem_enc_derand_jazz$115: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$114 L_crypto_kem_enc_derand_jazz$112: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$113 movq $0, %rcx movq $1280, %rdx jmp L_crypto_kem_enc_derand_jazz$110 L_crypto_kem_enc_derand_jazz$111: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$110: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$111 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$108 movb $2, 13232(%rsp) movb $0, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$109 L_crypto_kem_enc_derand_jazz$108: movb $0, 13232(%rsp) movb $2, 13233(%rsp) L_crypto_kem_enc_derand_jazz$109: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$107: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$105 L_crypto_kem_enc_derand_jazz$106: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$105: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$106 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$97 L_crypto_kem_enc_derand_jazz$98: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$104: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$99: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$102 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$102 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$103: L_crypto_kem_enc_derand_jazz$102: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$100 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$100 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$101: L_crypto_kem_enc_derand_jazz$100: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$99 L_crypto_kem_enc_derand_jazz$97: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$98 movq $0, %rcx movq $1536, %rdx jmp L_crypto_kem_enc_derand_jazz$95 L_crypto_kem_enc_derand_jazz$96: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$95: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$96 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$93 movb $2, 13232(%rsp) movb $1, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$94 L_crypto_kem_enc_derand_jazz$93: movb $1, 13232(%rsp) movb $2, 13233(%rsp) L_crypto_kem_enc_derand_jazz$94: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$92: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$90 L_crypto_kem_enc_derand_jazz$91: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$90: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$91 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$82 L_crypto_kem_enc_derand_jazz$83: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$89: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$84: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$87 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$87 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$88: L_crypto_kem_enc_derand_jazz$87: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$85 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$85 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$86: L_crypto_kem_enc_derand_jazz$85: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$84 L_crypto_kem_enc_derand_jazz$82: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$83 movq $0, %rcx movq $1792, %rdx jmp L_crypto_kem_enc_derand_jazz$80 L_crypto_kem_enc_derand_jazz$81: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$80: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$81 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$78 movb $2, 13232(%rsp) movb $2, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$79 L_crypto_kem_enc_derand_jazz$78: movb $2, 13232(%rsp) movb $2, 13233(%rsp) L_crypto_kem_enc_derand_jazz$79: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$77: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$75 L_crypto_kem_enc_derand_jazz$76: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$75: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$76 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$67 L_crypto_kem_enc_derand_jazz$68: movq %rcx, 8(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$74: leaq 8(%rsp), %rsp movq 8(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$69: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$72 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$72 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$73: L_crypto_kem_enc_derand_jazz$72: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$70 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$70 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$71: L_crypto_kem_enc_derand_jazz$70: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$69 L_crypto_kem_enc_derand_jazz$67: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$68 movq $0, %rcx movq $2048, %rdx jmp L_crypto_kem_enc_derand_jazz$65 L_crypto_kem_enc_derand_jazz$66: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$65: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$66 movb $0, %cl leaq 3984(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$64: leaq 176(%rsp), %rsp movb $1, %cl leaq 4496(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$63: leaq 176(%rsp), %rsp movb $2, %cl leaq 5008(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$62: leaq 176(%rsp), %rsp movb $3, %cl leaq 5520(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$61: leaq 176(%rsp), %rsp movb $4, %cl leaq 6032(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$60: leaq 176(%rsp), %rsp movb $5, %cl leaq 6544(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$59: leaq 176(%rsp), %rsp movb $6, %cl leaq 400(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$58: leaq 176(%rsp), %rsp leaq 3984(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_enc_derand_jazz$57: leaq 4496(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_enc_derand_jazz$56: leaq 5008(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_enc_derand_jazz$55: leaq 7056(%rsp), %rdi leaq 8592(%rsp), %rcx leaq 3984(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$54: leaq 16(%rsp), %rsp leaq 1424(%rsp), %rdi leaq 9104(%rsp), %rcx leaq 4496(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$53: leaq 16(%rsp), %rsp leaq 7056(%rsp), %rcx leaq 1424(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$52: leaq 1424(%rsp), %rdi leaq 9616(%rsp), %rcx leaq 5008(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$51: leaq 16(%rsp), %rsp leaq 7056(%rsp), %rcx leaq 1424(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$50: leaq 7056(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$48 L_crypto_kem_enc_derand_jazz$49: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$48: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$49 leaq 7568(%rsp), %rdi leaq 10128(%rsp), %rcx leaq 3984(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$47: leaq 16(%rsp), %rsp leaq 1424(%rsp), %rdi leaq 10640(%rsp), %rcx leaq 4496(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$46: leaq 16(%rsp), %rsp leaq 7568(%rsp), %rcx leaq 1424(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$45: leaq 1424(%rsp), %rdi leaq 11152(%rsp), %rcx leaq 5008(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$44: leaq 16(%rsp), %rsp leaq 7568(%rsp), %rcx leaq 1424(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$43: leaq 7568(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$41 L_crypto_kem_enc_derand_jazz$42: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$41: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$42 leaq 8080(%rsp), %rdi leaq 11664(%rsp), %rcx leaq 3984(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$40: leaq 16(%rsp), %rsp leaq 1424(%rsp), %rdi leaq 12176(%rsp), %rcx leaq 4496(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$39: leaq 16(%rsp), %rsp leaq 8080(%rsp), %rcx leaq 1424(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$38: leaq 1424(%rsp), %rdi leaq 12688(%rsp), %rcx leaq 5008(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$37: leaq 16(%rsp), %rsp leaq 8080(%rsp), %rcx leaq 1424(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$36: leaq 8080(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$34 L_crypto_kem_enc_derand_jazz$35: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$34: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$35 leaq 1424(%rsp), %rdi leaq 2448(%rsp), %rcx leaq 3984(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$33: leaq 16(%rsp), %rsp leaq 1936(%rsp), %rdi leaq 2960(%rsp), %rcx leaq 4496(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$32: leaq 16(%rsp), %rsp leaq 1424(%rsp), %rcx leaq 1936(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$31: leaq 1936(%rsp), %rdi leaq 3472(%rsp), %rcx leaq 5008(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$30: leaq 16(%rsp), %rsp leaq 1424(%rsp), %rcx leaq 1936(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$29: leaq 1424(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$27 L_crypto_kem_enc_derand_jazz$28: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$27: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$28 leaq 7056(%rsp), %rcx call L_poly_invntt$1 L_crypto_kem_enc_derand_jazz$26: leaq 7568(%rsp), %rcx call L_poly_invntt$1 L_crypto_kem_enc_derand_jazz$25: leaq 8080(%rsp), %rcx call L_poly_invntt$1 L_crypto_kem_enc_derand_jazz$24: leaq 1424(%rsp), %rcx call L_poly_invntt$1 L_crypto_kem_enc_derand_jazz$23: leaq 7056(%rsp), %rcx leaq 5520(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$22: leaq 7568(%rsp), %rcx leaq 6032(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$21: leaq 8080(%rsp), %rcx leaq 6544(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$20: leaq 1424(%rsp), %rcx leaq 400(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$19: leaq 1424(%rsp), %rcx leaq 912(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$18: leaq 7056(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$16 L_crypto_kem_enc_derand_jazz$17: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$16: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$17 leaq 7568(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$14 L_crypto_kem_enc_derand_jazz$15: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$14: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$15 leaq 8080(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$12 L_crypto_kem_enc_derand_jazz$13: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$12: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$13 leaq 1424(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$10 L_crypto_kem_enc_derand_jazz$11: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$10: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$11 movq 16(%rsp), %rax movq $0, %rdx movq $0, %rsi leaq 7056(%rsp), %rcx call L_poly_csubq$1 L_crypto_kem_enc_derand_jazz$9: leaq 7568(%rsp), %rcx call L_poly_csubq$1 L_crypto_kem_enc_derand_jazz$8: leaq 8080(%rsp), %rcx call L_poly_csubq$1 L_crypto_kem_enc_derand_jazz$7: jmp L_crypto_kem_enc_derand_jazz$5 L_crypto_kem_enc_derand_jazz$6: movzwq 7056(%rsp,%rdx,2), %rcx incq %rdx shlq $10, %rcx addq $1665, %rcx imulq $1290167, %rcx, %rcx shrq $32, %rcx andq $1023, %rcx movzwq 7056(%rsp,%rdx,2), %rdi incq %rdx shlq $10, %rdi addq $1665, %rdi imulq $1290167, %rdi, %rdi shrq $32, %rdi andq $1023, %rdi movzwq 7056(%rsp,%rdx,2), %r8 incq %rdx shlq $10, %r8 addq $1665, %r8 imulq $1290167, %r8, %r8 shrq $32, %r8 andq $1023, %r8 movzwq 7056(%rsp,%rdx,2), %r9 incq %rdx shlq $10, %r9 addq $1665, %r9 imulq $1290167, %r9, %r9 shrq $32, %r9 andq $1023, %r9 movw %cx, %r10w andw $255, %r10w movb %r10b, (%rax,%rsi) incq %rsi shrw $8, %cx movw %di, %r10w shlw $2, %r10w orw %cx, %r10w movb %r10b, (%rax,%rsi) incq %rsi shrw $6, %di movw %r8w, %cx shlw $4, %cx orw %di, %cx movb %cl, (%rax,%rsi) incq %rsi shrw $4, %r8w movw %r9w, %cx shlw $6, %cx orw %r8w, %cx movb %cl, (%rax,%rsi) incq %rsi shrq $2, %r9 movb %r9b, (%rax,%rsi) incq %rsi L_crypto_kem_enc_derand_jazz$5: cmpq $768, %rdx jb L_crypto_kem_enc_derand_jazz$6 addq $960, %rax leaq 1424(%rsp), %rcx call L_poly_compress$1 L_crypto_kem_enc_derand_jazz$4: movq 16(%rsp), %rsi movq $1088, %rax leaq 104(%rsp), %rcx leaq -232(%rsp), %rsp call L_sha3_256$1 L_crypto_kem_enc_derand_jazz$3: leaq 232(%rsp), %rsp movq 24(%rsp), %rax movq $32, %rcx leaq 72(%rsp), %rdx leaq -216(%rsp), %rsp call L_shake256_64$1 L_crypto_kem_enc_derand_jazz$2: leaq 216(%rsp), %rsp ret L_crypto_kem_keypair_derand_jazz$1: movq %rax, 8(%rsp) movq %rdi, 16(%rsp) movq %rsi, 24(%rsp) movq %rdi, 32(%rsp) movq %rsi, 40(%rsp) movq (%rax), %rcx movq %rcx, 64(%rsp) movq 8(%rax), %rcx movq %rcx, 72(%rsp) movq 16(%rax), %rcx movq %rcx, 80(%rsp) movq 24(%rax), %rax movq %rax, 88(%rsp) leaq 128(%rsp), %rcx leaq 64(%rsp), %rax leaq -208(%rsp), %rsp call L_sha3_512_32$1 L_crypto_kem_keypair_derand_jazz$189: leaq 208(%rsp), %rsp movq 128(%rsp), %rax movq %rax, 96(%rsp) movq 160(%rsp), %rax movq %rax, 64(%rsp) movq 136(%rsp), %rax movq %rax, 104(%rsp) movq 168(%rsp), %rax movq %rax, 72(%rsp) movq 144(%rsp), %rax movq %rax, 112(%rsp) movq 176(%rsp), %rax movq %rax, 80(%rsp) movq 152(%rsp), %rax movq %rax, 120(%rsp) movq 184(%rsp), %rax movq %rax, 88(%rsp) movq $0, %rax movq %rax, 48(%rsp) movb 96(%rsp), %al movb %al, 10120(%rsp) movb 97(%rsp), %al movb %al, 10121(%rsp) movb 98(%rsp), %al movb %al, 10122(%rsp) movb 99(%rsp), %al movb %al, 10123(%rsp) movb 100(%rsp), %al movb %al, 10124(%rsp) movb 101(%rsp), %al movb %al, 10125(%rsp) movb 102(%rsp), %al movb %al, 10126(%rsp) movb 103(%rsp), %al movb %al, 10127(%rsp) movb 104(%rsp), %al movb %al, 10128(%rsp) movb 105(%rsp), %al movb %al, 10129(%rsp) movb 106(%rsp), %al movb %al, 10130(%rsp) movb 107(%rsp), %al movb %al, 10131(%rsp) movb 108(%rsp), %al movb %al, 10132(%rsp) movb 109(%rsp), %al movb %al, 10133(%rsp) movb 110(%rsp), %al movb %al, 10134(%rsp) movb 111(%rsp), %al movb %al, 10135(%rsp) movb 112(%rsp), %al movb %al, 10136(%rsp) movb 113(%rsp), %al movb %al, 10137(%rsp) movb 114(%rsp), %al movb %al, 10138(%rsp) movb 115(%rsp), %al movb %al, 10139(%rsp) movb 116(%rsp), %al movb %al, 10140(%rsp) movb 117(%rsp), %al movb %al, 10141(%rsp) movb 118(%rsp), %al movb %al, 10142(%rsp) movb 119(%rsp), %al movb %al, 10143(%rsp) movb 120(%rsp), %al movb %al, 10144(%rsp) movb 121(%rsp), %al movb %al, 10145(%rsp) movb 122(%rsp), %al movb %al, 10146(%rsp) movb 123(%rsp), %al movb %al, 10147(%rsp) movb 124(%rsp), %al movb %al, 10148(%rsp) movb 125(%rsp), %al movb %al, 10149(%rsp) movb 126(%rsp), %al movb %al, 10150(%rsp) movb 127(%rsp), %al movb %al, 10151(%rsp) movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$187 movb $0, 10152(%rsp) movb $0, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$188 L_crypto_kem_keypair_derand_jazz$187: movb $0, 10152(%rsp) movb $0, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$188: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$186: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$184 L_crypto_kem_keypair_derand_jazz$185: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$184: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$185 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$176 L_crypto_kem_keypair_derand_jazz$177: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$183: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$178: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$181 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$181 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$182: L_crypto_kem_keypair_derand_jazz$181: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$179 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$179 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$180: L_crypto_kem_keypair_derand_jazz$179: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$178 L_crypto_kem_keypair_derand_jazz$176: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$177 movq $0, %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$174 L_crypto_kem_keypair_derand_jazz$175: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$174: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$175 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$172 movb $0, 10152(%rsp) movb $1, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$173 L_crypto_kem_keypair_derand_jazz$172: movb $1, 10152(%rsp) movb $0, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$173: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$171: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$169 L_crypto_kem_keypair_derand_jazz$170: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$169: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$170 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$161 L_crypto_kem_keypair_derand_jazz$162: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$168: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$163: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$166 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$166 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$167: L_crypto_kem_keypair_derand_jazz$166: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$164 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$164 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$165: L_crypto_kem_keypair_derand_jazz$164: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$163 L_crypto_kem_keypair_derand_jazz$161: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$162 movq $0, %rax movq $256, %rcx jmp L_crypto_kem_keypair_derand_jazz$159 L_crypto_kem_keypair_derand_jazz$160: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$159: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$160 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$157 movb $0, 10152(%rsp) movb $2, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$158 L_crypto_kem_keypair_derand_jazz$157: movb $2, 10152(%rsp) movb $0, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$158: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$156: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$154 L_crypto_kem_keypair_derand_jazz$155: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$154: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$155 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$146 L_crypto_kem_keypair_derand_jazz$147: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$153: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$148: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$151 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$151 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$152: L_crypto_kem_keypair_derand_jazz$151: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$149 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$149 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$150: L_crypto_kem_keypair_derand_jazz$149: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$148 L_crypto_kem_keypair_derand_jazz$146: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$147 movq $0, %rax movq $512, %rcx jmp L_crypto_kem_keypair_derand_jazz$144 L_crypto_kem_keypair_derand_jazz$145: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$144: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$145 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$142 movb $1, 10152(%rsp) movb $0, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$143 L_crypto_kem_keypair_derand_jazz$142: movb $0, 10152(%rsp) movb $1, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$143: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$141: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$139 L_crypto_kem_keypair_derand_jazz$140: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$139: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$140 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$131 L_crypto_kem_keypair_derand_jazz$132: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$138: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$133: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$136 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$136 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$137: L_crypto_kem_keypair_derand_jazz$136: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$134 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$134 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$135: L_crypto_kem_keypair_derand_jazz$134: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$133 L_crypto_kem_keypair_derand_jazz$131: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$132 movq $0, %rax movq $768, %rcx jmp L_crypto_kem_keypair_derand_jazz$129 L_crypto_kem_keypair_derand_jazz$130: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$129: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$130 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$127 movb $1, 10152(%rsp) movb $1, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$128 L_crypto_kem_keypair_derand_jazz$127: movb $1, 10152(%rsp) movb $1, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$128: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$126: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$124 L_crypto_kem_keypair_derand_jazz$125: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$124: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$125 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$116 L_crypto_kem_keypair_derand_jazz$117: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$123: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$118: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$121 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$121 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$122: L_crypto_kem_keypair_derand_jazz$121: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$119 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$119 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$120: L_crypto_kem_keypair_derand_jazz$119: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$118 L_crypto_kem_keypair_derand_jazz$116: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$117 movq $0, %rax movq $1024, %rcx jmp L_crypto_kem_keypair_derand_jazz$114 L_crypto_kem_keypair_derand_jazz$115: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$114: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$115 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$112 movb $1, 10152(%rsp) movb $2, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$113 L_crypto_kem_keypair_derand_jazz$112: movb $2, 10152(%rsp) movb $1, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$113: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$111: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$109 L_crypto_kem_keypair_derand_jazz$110: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$109: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$110 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$101 L_crypto_kem_keypair_derand_jazz$102: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$108: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$103: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$106 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$106 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$107: L_crypto_kem_keypair_derand_jazz$106: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$104 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$104 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$105: L_crypto_kem_keypair_derand_jazz$104: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$103 L_crypto_kem_keypair_derand_jazz$101: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$102 movq $0, %rax movq $1280, %rcx jmp L_crypto_kem_keypair_derand_jazz$99 L_crypto_kem_keypair_derand_jazz$100: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$99: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$100 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$97 movb $2, 10152(%rsp) movb $0, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$98 L_crypto_kem_keypair_derand_jazz$97: movb $0, 10152(%rsp) movb $2, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$98: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$96: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$94 L_crypto_kem_keypair_derand_jazz$95: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$94: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$95 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$86 L_crypto_kem_keypair_derand_jazz$87: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$93: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$88: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$91 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$91 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$92: L_crypto_kem_keypair_derand_jazz$91: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$89 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$89 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$90: L_crypto_kem_keypair_derand_jazz$89: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$88 L_crypto_kem_keypair_derand_jazz$86: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$87 movq $0, %rax movq $1536, %rcx jmp L_crypto_kem_keypair_derand_jazz$84 L_crypto_kem_keypair_derand_jazz$85: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$84: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$85 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$82 movb $2, 10152(%rsp) movb $1, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$83 L_crypto_kem_keypair_derand_jazz$82: movb $1, 10152(%rsp) movb $2, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$83: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$81: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$79 L_crypto_kem_keypair_derand_jazz$80: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$79: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$80 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$71 L_crypto_kem_keypair_derand_jazz$72: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$78: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$73: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$76 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$76 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$77: L_crypto_kem_keypair_derand_jazz$76: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$74 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$74 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$75: L_crypto_kem_keypair_derand_jazz$74: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$73 L_crypto_kem_keypair_derand_jazz$71: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$72 movq $0, %rax movq $1792, %rcx jmp L_crypto_kem_keypair_derand_jazz$69 L_crypto_kem_keypair_derand_jazz$70: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$69: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$70 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$67 movb $2, 10152(%rsp) movb $2, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$68 L_crypto_kem_keypair_derand_jazz$67: movb $2, 10152(%rsp) movb $2, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$68: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$66: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$64 L_crypto_kem_keypair_derand_jazz$65: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$64: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$65 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$56 L_crypto_kem_keypair_derand_jazz$57: movq %rax, 48(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$63: leaq 8(%rsp), %rsp movq 48(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$58: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$61 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$61 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$62: L_crypto_kem_keypair_derand_jazz$61: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$59 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$59 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$60: L_crypto_kem_keypair_derand_jazz$59: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$58 L_crypto_kem_keypair_derand_jazz$56: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$57 movq $0, %rax movq $2048, %rcx jmp L_crypto_kem_keypair_derand_jazz$54 L_crypto_kem_keypair_derand_jazz$55: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$54: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$55 movb $0, %cl leaq 904(%rsp), %rdx leaq 64(%rsp), %rax leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_keypair_derand_jazz$53: leaq 176(%rsp), %rsp movb $1, %cl leaq 1416(%rsp), %rdx leaq 64(%rsp), %rax leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_keypair_derand_jazz$52: leaq 176(%rsp), %rsp movb $2, %cl leaq 1928(%rsp), %rdx leaq 64(%rsp), %rax leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_keypair_derand_jazz$51: leaq 176(%rsp), %rsp movb $3, %cl leaq 2440(%rsp), %rdx leaq 64(%rsp), %rax leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_keypair_derand_jazz$50: leaq 176(%rsp), %rsp movb $4, %cl leaq 2952(%rsp), %rdx leaq 64(%rsp), %rax leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_keypair_derand_jazz$49: leaq 176(%rsp), %rsp movb $5, %cl leaq 3464(%rsp), %rdx leaq 64(%rsp), %rax leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_keypair_derand_jazz$48: leaq 176(%rsp), %rsp leaq 904(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_keypair_derand_jazz$47: leaq 1416(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_keypair_derand_jazz$46: leaq 1928(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_keypair_derand_jazz$45: leaq 2440(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_keypair_derand_jazz$44: leaq 2952(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_keypair_derand_jazz$43: leaq 3464(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_keypair_derand_jazz$42: leaq 3976(%rsp), %rdi leaq 5512(%rsp), %rcx leaq 904(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$41: leaq 16(%rsp), %rsp leaq 392(%rsp), %rdi leaq 6024(%rsp), %rcx leaq 1416(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$40: leaq 16(%rsp), %rsp leaq 3976(%rsp), %rcx leaq 392(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$39: leaq 392(%rsp), %rdi leaq 6536(%rsp), %rcx leaq 1928(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$38: leaq 16(%rsp), %rsp leaq 3976(%rsp), %rcx leaq 392(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$37: leaq 3976(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$35 L_crypto_kem_keypair_derand_jazz$36: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_keypair_derand_jazz$35: cmpq $256, %rcx jb L_crypto_kem_keypair_derand_jazz$36 leaq 3976(%rsp), %rax call L_poly_frommont$1 L_crypto_kem_keypair_derand_jazz$34: leaq 4488(%rsp), %rdi leaq 7048(%rsp), %rcx leaq 904(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$33: leaq 16(%rsp), %rsp leaq 392(%rsp), %rdi leaq 7560(%rsp), %rcx leaq 1416(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$32: leaq 16(%rsp), %rsp leaq 4488(%rsp), %rcx leaq 392(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$31: leaq 392(%rsp), %rdi leaq 8072(%rsp), %rcx leaq 1928(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$30: leaq 16(%rsp), %rsp leaq 4488(%rsp), %rcx leaq 392(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$29: leaq 4488(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$27 L_crypto_kem_keypair_derand_jazz$28: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_keypair_derand_jazz$27: cmpq $256, %rcx jb L_crypto_kem_keypair_derand_jazz$28 leaq 4488(%rsp), %rax call L_poly_frommont$1 L_crypto_kem_keypair_derand_jazz$26: leaq 5000(%rsp), %rdi leaq 8584(%rsp), %rcx leaq 904(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$25: leaq 16(%rsp), %rsp leaq 392(%rsp), %rdi leaq 9096(%rsp), %rcx leaq 1416(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$24: leaq 16(%rsp), %rsp leaq 5000(%rsp), %rcx leaq 392(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$23: leaq 392(%rsp), %rdi leaq 9608(%rsp), %rcx leaq 1928(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$22: leaq 16(%rsp), %rsp leaq 5000(%rsp), %rcx leaq 392(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$21: leaq 5000(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$19 L_crypto_kem_keypair_derand_jazz$20: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_keypair_derand_jazz$19: cmpq $256, %rcx jb L_crypto_kem_keypair_derand_jazz$20 leaq 5000(%rsp), %rax call L_poly_frommont$1 L_crypto_kem_keypair_derand_jazz$18: leaq 3976(%rsp), %rcx leaq 2440(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$17: leaq 4488(%rsp), %rcx leaq 2952(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$16: leaq 5000(%rsp), %rcx leaq 3464(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$15: leaq 3976(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$13 L_crypto_kem_keypair_derand_jazz$14: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_keypair_derand_jazz$13: cmpq $256, %rcx jb L_crypto_kem_keypair_derand_jazz$14 leaq 4488(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$11 L_crypto_kem_keypair_derand_jazz$12: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_keypair_derand_jazz$11: cmpq $256, %rcx jb L_crypto_kem_keypair_derand_jazz$12 leaq 5000(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$9 L_crypto_kem_keypair_derand_jazz$10: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_keypair_derand_jazz$9: cmpq $256, %rcx jb L_crypto_kem_keypair_derand_jazz$10 movq 32(%rsp), %rax movq 40(%rsp), %rcx movq %rcx, %rdx leaq 904(%rsp), %rcx call L_poly_tobytes$1 L_crypto_kem_keypair_derand_jazz$8: addq $384, %rdx leaq 1416(%rsp), %rcx call L_poly_tobytes$1 L_crypto_kem_keypair_derand_jazz$7: addq $384, %rdx leaq 1928(%rsp), %rcx call L_poly_tobytes$1 L_crypto_kem_keypair_derand_jazz$6: movq %rax, %rdx leaq 3976(%rsp), %rcx call L_poly_tobytes$1 L_crypto_kem_keypair_derand_jazz$5: addq $384, %rdx leaq 4488(%rsp), %rcx call L_poly_tobytes$1 L_crypto_kem_keypair_derand_jazz$4: addq $384, %rdx leaq 5000(%rsp), %rcx call L_poly_tobytes$1 L_crypto_kem_keypair_derand_jazz$3: addq $1152, %rax movq 96(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 104(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 112(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 120(%rsp), %rcx movq %rcx, (%rax) movq 24(%rsp), %rax addq $1152, %rax movq 16(%rsp), %rcx movq (%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 8(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 16(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 24(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 32(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 40(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 48(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 56(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 64(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 72(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 80(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 88(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 96(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 104(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 112(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 120(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 128(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 136(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 144(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 152(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 160(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 168(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 176(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 184(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 192(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 200(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 208(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 216(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 224(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 232(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 240(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 248(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 256(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 264(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 272(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 280(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 288(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 296(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 304(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 312(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 320(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 328(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 336(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 344(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 352(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 360(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 368(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 376(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 384(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 392(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 400(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 408(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 416(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 424(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 432(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 440(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 448(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 456(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 464(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 472(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 480(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 488(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 496(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 504(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 512(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 520(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 528(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 536(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 544(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 552(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 560(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 568(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 576(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 584(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 592(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 600(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 608(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 616(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 624(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 632(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 640(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 648(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 656(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 664(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 672(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 680(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 688(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 696(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 704(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 712(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 720(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 728(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 736(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 744(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 752(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 760(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 768(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 776(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 784(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 792(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 800(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 808(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 816(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 824(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 832(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 840(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 848(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 856(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 864(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 872(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 880(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 888(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 896(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 904(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 912(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 920(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 928(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 936(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 944(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 952(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 960(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 968(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 976(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 984(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 992(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1000(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1008(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1016(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1024(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1032(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1040(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1048(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1056(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1064(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1072(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1080(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1088(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1096(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1104(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1112(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1120(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1128(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1136(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1144(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1152(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1160(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1168(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1176(%rcx), %rcx movq %rcx, (%rax) addq $8, %rax movq %rax, 24(%rsp) movq 16(%rsp), %rsi movq $1184, %rax leaq 96(%rsp), %rcx leaq -232(%rsp), %rsp call L_sha3_256$1 L_crypto_kem_keypair_derand_jazz$2: leaq 232(%rsp), %rsp movq 24(%rsp), %rax movq 96(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 104(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 112(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 120(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 8(%rsp), %rcx leaq 32(%rcx), %rcx movq (%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 8(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 16(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 24(%rcx), %rcx movq %rcx, (%rax) ret L_i_poly_tomsg$1: call L_poly_csubq$1 L_i_poly_tomsg$2: movb $0, %sil movw (%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 2(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 4(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 6(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 8(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 10(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 12(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 14(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, (%rax) movb $0, %sil movw 16(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 18(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 20(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 22(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 24(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 26(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 28(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 30(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 1(%rax) movb $0, %sil movw 32(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 34(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 36(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 38(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 40(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 42(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 44(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 46(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 2(%rax) movb $0, %sil movw 48(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 50(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 52(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 54(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 56(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 58(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 60(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 62(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 3(%rax) movb $0, %sil movw 64(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 66(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 68(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 70(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 72(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 74(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 76(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 78(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 4(%rax) movb $0, %sil movw 80(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 82(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 84(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 86(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 88(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 90(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 92(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 94(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 5(%rax) movb $0, %sil movw 96(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 98(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 100(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 102(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 104(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 106(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 108(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 110(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 6(%rax) movb $0, %sil movw 112(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 114(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 116(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 118(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 120(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 122(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 124(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 126(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 7(%rax) movb $0, %sil movw 128(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 130(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 132(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 134(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 136(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 138(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 140(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 142(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 8(%rax) movb $0, %sil movw 144(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 146(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 148(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 150(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 152(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 154(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 156(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 158(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 9(%rax) movb $0, %sil movw 160(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 162(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 164(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 166(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 168(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 170(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 172(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 174(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 10(%rax) movb $0, %sil movw 176(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 178(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 180(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 182(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 184(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 186(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 188(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 190(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 11(%rax) movb $0, %sil movw 192(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 194(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 196(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 198(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 200(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 202(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 204(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 206(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 12(%rax) movb $0, %sil movw 208(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 210(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 212(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 214(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 216(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 218(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 220(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 222(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 13(%rax) movb $0, %sil movw 224(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 226(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 228(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 230(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 232(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 234(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 236(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 238(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 14(%rax) movb $0, %sil movw 240(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 242(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 244(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 246(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 248(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 250(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 252(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 254(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 15(%rax) movb $0, %sil movw 256(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 258(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 260(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 262(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 264(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 266(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 268(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 270(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 16(%rax) movb $0, %sil movw 272(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 274(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 276(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 278(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 280(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 282(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 284(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 286(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 17(%rax) movb $0, %sil movw 288(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 290(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 292(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 294(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 296(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 298(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 300(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 302(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 18(%rax) movb $0, %sil movw 304(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 306(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 308(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 310(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 312(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 314(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 316(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 318(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 19(%rax) movb $0, %sil movw 320(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 322(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 324(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 326(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 328(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 330(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 332(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 334(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 20(%rax) movb $0, %sil movw 336(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 338(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 340(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 342(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 344(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 346(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 348(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 350(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 21(%rax) movb $0, %sil movw 352(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 354(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 356(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 358(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 360(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 362(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 364(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 366(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 22(%rax) movb $0, %sil movw 368(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 370(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 372(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 374(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 376(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 378(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 380(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 382(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 23(%rax) movb $0, %sil movw 384(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 386(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 388(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 390(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 392(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 394(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 396(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 398(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 24(%rax) movb $0, %sil movw 400(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 402(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 404(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 406(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 408(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 410(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 412(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 414(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 25(%rax) movb $0, %sil movw 416(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 418(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 420(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 422(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 424(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 426(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 428(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 430(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 26(%rax) movb $0, %sil movw 432(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 434(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 436(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 438(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 440(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 442(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 444(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 446(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 27(%rax) movb $0, %sil movw 448(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 450(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 452(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 454(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 456(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 458(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 460(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 462(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 28(%rax) movb $0, %sil movw 464(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 466(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 468(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 470(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 472(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 474(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 476(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 478(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 29(%rax) movb $0, %sil movw 480(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 482(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 484(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 486(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 488(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 490(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 492(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 494(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 30(%rax) movb $0, %sil movw 496(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 498(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 500(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 502(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 504(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 506(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 508(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 510(%rcx), %cx movzwl %cx, %ecx shll $1, %ecx addl $1665, %ecx imull $80635, %ecx, %ecx shrl $28, %ecx andl $1, %ecx shll $7, %ecx orb %cl, %sil movb %sil, 31(%rax) ret L_poly_tobytes$1: call L_poly_csubq$1 L_poly_tobytes$4: movq $0, %rsi movq $0, %rdi jmp L_poly_tobytes$2 L_poly_tobytes$3: movw (%rcx,%rsi,2), %r8w incq %rsi movw (%rcx,%rsi,2), %r9w incq %rsi movw %r8w, %r10w andw $255, %r10w movb %r10b, (%rdx,%rdi) incq %rdi shrw $8, %r8w movw %r9w, %r10w andw $15, %r10w shlw $4, %r10w orw %r8w, %r10w movb %r10b, (%rdx,%rdi) incq %rdi shrw $4, %r9w movb %r9b, (%rdx,%rdi) incq %rdi L_poly_tobytes$2: cmpq $256, %rsi jb L_poly_tobytes$3 ret L_poly_sub$1: movq $0, %r8 jmp L_poly_sub$2 L_poly_sub$3: movw (%rsi,%r8,2), %r9w movw (%rdi,%r8,2), %r10w subw %r10w, %r9w movw %r9w, (%rcx,%r8,2) incq %r8 L_poly_sub$2: cmpq $256, %r8 jb L_poly_sub$3 ret L_poly_ntt$1: leaq glob_data + 448(%rip), %rsi movq $0, %rdi movq $128, %r8 jmp L_poly_ntt$4 L_poly_ntt$5: movq $0, %r11 jmp L_poly_ntt$6 L_poly_ntt$7: incq %rdi movw (%rsi,%rdi,2), %r9w movq %r11, %r10 leaq (%r11,%r8), %r11 jmp L_poly_ntt$8 L_poly_ntt$9: leaq (%r10,%r8), %rbx movw (%rcx,%rbx,2), %bp movswl %bp, %ebp movswl %r9w, %r12d imull %r12d, %ebp imull $62209, %ebp, %r12d shll $16, %r12d sarl $16, %r12d imull $3329, %r12d, %r12d subl %r12d, %ebp sarl $16, %ebp movw (%rcx,%r10,2), %r12w movw %r12w, %r13w subw %bp, %r13w movw %r13w, (%rcx,%rbx,2) addw %r12w, %bp movw %bp, (%rcx,%r10,2) incq %r10 L_poly_ntt$8: cmpq %r11, %r10 jb L_poly_ntt$9 leaq (%r10,%r8), %r11 L_poly_ntt$6: cmpq $256, %r11 jb L_poly_ntt$7 shrq $1, %r8 L_poly_ntt$4: cmpq $2, %r8 jnb L_poly_ntt$5 movq $0, %rsi jmp L_poly_ntt$2 L_poly_ntt$3: movw (%rcx,%rsi,2), %di movswl %di, %r8d imull $20159, %r8d, %r8d sarl $26, %r8d imull $3329, %r8d, %r8d subw %r8w, %di movw %di, (%rcx,%rsi,2) incq %rsi L_poly_ntt$2: cmpq $256, %rsi jb L_poly_ntt$3 ret L_poly_invntt$1: leaq glob_data + 192(%rip), %rsi movq $0, %rdi movq $2, %r8 jmp L_poly_invntt$4 L_poly_invntt$5: movq $0, %r11 jmp L_poly_invntt$6 L_poly_invntt$7: movw (%rsi,%rdi,2), %r9w incq %rdi movq %r11, %r10 leaq (%r11,%r8), %r11 jmp L_poly_invntt$8 L_poly_invntt$9: leaq (%r10,%r8), %rbx movw (%rcx,%rbx,2), %bp movw (%rcx,%r10,2), %r12w movw %bp, %r13w addw %r12w, %r13w movswl %r13w, %r14d imull $20159, %r14d, %r14d sarl $26, %r14d imull $3329, %r14d, %r14d subw %r14w, %r13w movw %r13w, (%rcx,%r10,2) subw %bp, %r12w movswl %r12w, %ebp movswl %r9w, %r12d imull %r12d, %ebp imull $62209, %ebp, %r12d shll $16, %r12d sarl $16, %r12d imull $3329, %r12d, %r12d subl %r12d, %ebp sarl $16, %ebp movw %bp, (%rcx,%rbx,2) incq %r10 L_poly_invntt$8: cmpq %r11, %r10 jb L_poly_invntt$9 leaq (%r10,%r8), %r11 L_poly_invntt$6: cmpq $256, %r11 jb L_poly_invntt$7 shlq $1, %r8 L_poly_invntt$4: cmpq $128, %r8 jbe L_poly_invntt$5 movw 254(%rsi), %si movq $0, %rdi jmp L_poly_invntt$2 L_poly_invntt$3: movw (%rcx,%rdi,2), %r8w movswl %r8w, %r8d movswl %si, %r9d imull %r9d, %r8d imull $62209, %r8d, %r9d shll $16, %r9d sarl $16, %r9d imull $3329, %r9d, %r9d subl %r9d, %r8d sarl $16, %r8d movw %r8w, (%rcx,%rdi,2) incq %rdi L_poly_invntt$2: cmpq $256, %rdi jb L_poly_invntt$3 ret L_poly_getnoise$1: movq %rdx, 8(%rsp) movb (%rax), %dl movb %dl, 16(%rsp) movb 1(%rax), %dl movb %dl, 17(%rsp) movb 2(%rax), %dl movb %dl, 18(%rsp) movb 3(%rax), %dl movb %dl, 19(%rsp) movb 4(%rax), %dl movb %dl, 20(%rsp) movb 5(%rax), %dl movb %dl, 21(%rsp) movb 6(%rax), %dl movb %dl, 22(%rsp) movb 7(%rax), %dl movb %dl, 23(%rsp) movb 8(%rax), %dl movb %dl, 24(%rsp) movb 9(%rax), %dl movb %dl, 25(%rsp) movb 10(%rax), %dl movb %dl, 26(%rsp) movb 11(%rax), %dl movb %dl, 27(%rsp) movb 12(%rax), %dl movb %dl, 28(%rsp) movb 13(%rax), %dl movb %dl, 29(%rsp) movb 14(%rax), %dl movb %dl, 30(%rsp) movb 15(%rax), %dl movb %dl, 31(%rsp) movb 16(%rax), %dl movb %dl, 32(%rsp) movb 17(%rax), %dl movb %dl, 33(%rsp) movb 18(%rax), %dl movb %dl, 34(%rsp) movb 19(%rax), %dl movb %dl, 35(%rsp) movb 20(%rax), %dl movb %dl, 36(%rsp) movb 21(%rax), %dl movb %dl, 37(%rsp) movb 22(%rax), %dl movb %dl, 38(%rsp) movb 23(%rax), %dl movb %dl, 39(%rsp) movb 24(%rax), %dl movb %dl, 40(%rsp) movb 25(%rax), %dl movb %dl, 41(%rsp) movb 26(%rax), %dl movb %dl, 42(%rsp) movb 27(%rax), %dl movb %dl, 43(%rsp) movb 28(%rax), %dl movb %dl, 44(%rsp) movb 29(%rax), %dl movb %dl, 45(%rsp) movb 30(%rax), %dl movb %dl, 46(%rsp) movb 31(%rax), %dl movb %dl, 47(%rsp) movb %cl, 48(%rsp) leaq 49(%rsp), %rcx leaq 16(%rsp), %rdx leaq -208(%rsp), %rsp call L_shake256_128_33$1 L_poly_getnoise$4: leaq 208(%rsp), %rsp movq 8(%rsp), %rcx movq $0, %rdx movq $0, %rsi jmp L_poly_getnoise$2 L_poly_getnoise$3: movb 49(%rsp,%rdx), %dil movb %dil, %r8b andb $85, %r8b shrb $1, %dil andb $85, %dil addb %r8b, %dil movb %dil, %r8b andb $3, %r8b movb %dil, %r9b shrb $2, %r9b andb $3, %r9b subb %r9b, %r8b movsbw %r8b, %r8w movw %r8w, (%rcx,%rsi,2) movb %dil, %r8b shrb $4, %r8b andb $3, %r8b shrb $6, %dil andb $3, %dil subb %dil, %r8b movsbw %r8b, %di incq %rsi movw %di, (%rcx,%rsi,2) incq %rdx incq %rsi L_poly_getnoise$2: cmpq $128, %rdx jb L_poly_getnoise$3 ret L_i_poly_frommsg$1: movb (%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, (%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 2(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 4(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 6(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 8(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 10(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 12(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 14(%rdx) movb 1(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 16(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 18(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 20(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 22(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 24(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 26(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 28(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 30(%rdx) movb 2(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 32(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 34(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 36(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 38(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 40(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 42(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 44(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 46(%rdx) movb 3(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 48(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 50(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 52(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 54(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 56(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 58(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 60(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 62(%rdx) movb 4(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 64(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 66(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 68(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 70(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 72(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 74(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 76(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 78(%rdx) movb 5(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 80(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 82(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 84(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 86(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 88(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 90(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 92(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 94(%rdx) movb 6(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 96(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 98(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 100(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 102(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 104(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 106(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 108(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 110(%rdx) movb 7(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 112(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 114(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 116(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 118(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 120(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 122(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 124(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 126(%rdx) movb 8(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 128(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 130(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 132(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 134(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 136(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 138(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 140(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 142(%rdx) movb 9(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 144(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 146(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 148(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 150(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 152(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 154(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 156(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 158(%rdx) movb 10(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 160(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 162(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 164(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 166(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 168(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 170(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 172(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 174(%rdx) movb 11(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 176(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 178(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 180(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 182(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 184(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 186(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 188(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 190(%rdx) movb 12(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 192(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 194(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 196(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 198(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 200(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 202(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 204(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 206(%rdx) movb 13(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 208(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 210(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 212(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 214(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 216(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 218(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 220(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 222(%rdx) movb 14(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 224(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 226(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 228(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 230(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 232(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 234(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 236(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 238(%rdx) movb 15(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 240(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 242(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 244(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 246(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 248(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 250(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 252(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 254(%rdx) movb 16(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 256(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 258(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 260(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 262(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 264(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 266(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 268(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 270(%rdx) movb 17(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 272(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 274(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 276(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 278(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 280(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 282(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 284(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 286(%rdx) movb 18(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 288(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 290(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 292(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 294(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 296(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 298(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 300(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 302(%rdx) movb 19(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 304(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 306(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 308(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 310(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 312(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 314(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 316(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 318(%rdx) movb 20(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 320(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 322(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 324(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 326(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 328(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 330(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 332(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 334(%rdx) movb 21(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 336(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 338(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 340(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 342(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 344(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 346(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 348(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 350(%rdx) movb 22(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 352(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 354(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 356(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 358(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 360(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 362(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 364(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 366(%rdx) movb 23(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 368(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 370(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 372(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 374(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 376(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 378(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 380(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 382(%rdx) movb 24(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 384(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 386(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 388(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 390(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 392(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 394(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 396(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 398(%rdx) movb 25(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 400(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 402(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 404(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 406(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 408(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 410(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 412(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 414(%rdx) movb 26(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 416(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 418(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 420(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 422(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 424(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 426(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 428(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 430(%rdx) movb 27(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 432(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 434(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 436(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 438(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 440(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 442(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 444(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 446(%rdx) movb 28(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 448(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 450(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 452(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 454(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 456(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 458(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 460(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 462(%rdx) movb 29(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 464(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 466(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 468(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 470(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 472(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 474(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 476(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 478(%rdx) movb 30(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 480(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 482(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 484(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 486(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 488(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 490(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 492(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 494(%rdx) movb 31(%rcx), %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 496(%rdx) shrb $1, %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 498(%rdx) shrb $1, %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 500(%rdx) shrb $1, %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 502(%rdx) shrb $1, %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 504(%rdx) shrb $1, %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 506(%rdx) shrb $1, %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 508(%rdx) shrb $1, %cl movzbw %cl, %cx andw $1, %cx imulw $1665, %cx, %cx movw %cx, 510(%rdx) ret L_poly_frommont$1: movw $1353, %cx movq $0, %rdx jmp L_poly_frommont$2 L_poly_frommont$3: movw (%rax,%rdx,2), %si movswl %si, %esi movswl %cx, %edi imull %edi, %esi imull $62209, %esi, %edi shll $16, %edi sarl $16, %edi imull $3329, %edi, %edi subl %edi, %esi sarl $16, %esi movw %si, (%rax,%rdx,2) incq %rdx L_poly_frommont$2: cmpq $256, %rdx jb L_poly_frommont$3 ret L_poly_frombytes$1: movb (%rsi), %r8b movb 1(%rsi), %r9b movb 2(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, (%rdi) movw %r10w, 2(%rdi) movb 3(%rsi), %r8b movb 4(%rsi), %r9b movb 5(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 4(%rdi) movw %r10w, 6(%rdi) movb 6(%rsi), %r8b movb 7(%rsi), %r9b movb 8(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 8(%rdi) movw %r10w, 10(%rdi) movb 9(%rsi), %r8b movb 10(%rsi), %r9b movb 11(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 12(%rdi) movw %r10w, 14(%rdi) movb 12(%rsi), %r8b movb 13(%rsi), %r9b movb 14(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 16(%rdi) movw %r10w, 18(%rdi) movb 15(%rsi), %r8b movb 16(%rsi), %r9b movb 17(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 20(%rdi) movw %r10w, 22(%rdi) movb 18(%rsi), %r8b movb 19(%rsi), %r9b movb 20(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 24(%rdi) movw %r10w, 26(%rdi) movb 21(%rsi), %r8b movb 22(%rsi), %r9b movb 23(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 28(%rdi) movw %r10w, 30(%rdi) movb 24(%rsi), %r8b movb 25(%rsi), %r9b movb 26(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 32(%rdi) movw %r10w, 34(%rdi) movb 27(%rsi), %r8b movb 28(%rsi), %r9b movb 29(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 36(%rdi) movw %r10w, 38(%rdi) movb 30(%rsi), %r8b movb 31(%rsi), %r9b movb 32(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 40(%rdi) movw %r10w, 42(%rdi) movb 33(%rsi), %r8b movb 34(%rsi), %r9b movb 35(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 44(%rdi) movw %r10w, 46(%rdi) movb 36(%rsi), %r8b movb 37(%rsi), %r9b movb 38(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 48(%rdi) movw %r10w, 50(%rdi) movb 39(%rsi), %r8b movb 40(%rsi), %r9b movb 41(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 52(%rdi) movw %r10w, 54(%rdi) movb 42(%rsi), %r8b movb 43(%rsi), %r9b movb 44(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 56(%rdi) movw %r10w, 58(%rdi) movb 45(%rsi), %r8b movb 46(%rsi), %r9b movb 47(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 60(%rdi) movw %r10w, 62(%rdi) movb 48(%rsi), %r8b movb 49(%rsi), %r9b movb 50(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 64(%rdi) movw %r10w, 66(%rdi) movb 51(%rsi), %r8b movb 52(%rsi), %r9b movb 53(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 68(%rdi) movw %r10w, 70(%rdi) movb 54(%rsi), %r8b movb 55(%rsi), %r9b movb 56(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 72(%rdi) movw %r10w, 74(%rdi) movb 57(%rsi), %r8b movb 58(%rsi), %r9b movb 59(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 76(%rdi) movw %r10w, 78(%rdi) movb 60(%rsi), %r8b movb 61(%rsi), %r9b movb 62(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 80(%rdi) movw %r10w, 82(%rdi) movb 63(%rsi), %r8b movb 64(%rsi), %r9b movb 65(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 84(%rdi) movw %r10w, 86(%rdi) movb 66(%rsi), %r8b movb 67(%rsi), %r9b movb 68(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 88(%rdi) movw %r10w, 90(%rdi) movb 69(%rsi), %r8b movb 70(%rsi), %r9b movb 71(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 92(%rdi) movw %r10w, 94(%rdi) movb 72(%rsi), %r8b movb 73(%rsi), %r9b movb 74(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 96(%rdi) movw %r10w, 98(%rdi) movb 75(%rsi), %r8b movb 76(%rsi), %r9b movb 77(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 100(%rdi) movw %r10w, 102(%rdi) movb 78(%rsi), %r8b movb 79(%rsi), %r9b movb 80(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 104(%rdi) movw %r10w, 106(%rdi) movb 81(%rsi), %r8b movb 82(%rsi), %r9b movb 83(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 108(%rdi) movw %r10w, 110(%rdi) movb 84(%rsi), %r8b movb 85(%rsi), %r9b movb 86(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 112(%rdi) movw %r10w, 114(%rdi) movb 87(%rsi), %r8b movb 88(%rsi), %r9b movb 89(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 116(%rdi) movw %r10w, 118(%rdi) movb 90(%rsi), %r8b movb 91(%rsi), %r9b movb 92(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 120(%rdi) movw %r10w, 122(%rdi) movb 93(%rsi), %r8b movb 94(%rsi), %r9b movb 95(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 124(%rdi) movw %r10w, 126(%rdi) movb 96(%rsi), %r8b movb 97(%rsi), %r9b movb 98(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 128(%rdi) movw %r10w, 130(%rdi) movb 99(%rsi), %r8b movb 100(%rsi), %r9b movb 101(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 132(%rdi) movw %r10w, 134(%rdi) movb 102(%rsi), %r8b movb 103(%rsi), %r9b movb 104(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 136(%rdi) movw %r10w, 138(%rdi) movb 105(%rsi), %r8b movb 106(%rsi), %r9b movb 107(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 140(%rdi) movw %r10w, 142(%rdi) movb 108(%rsi), %r8b movb 109(%rsi), %r9b movb 110(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 144(%rdi) movw %r10w, 146(%rdi) movb 111(%rsi), %r8b movb 112(%rsi), %r9b movb 113(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 148(%rdi) movw %r10w, 150(%rdi) movb 114(%rsi), %r8b movb 115(%rsi), %r9b movb 116(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 152(%rdi) movw %r10w, 154(%rdi) movb 117(%rsi), %r8b movb 118(%rsi), %r9b movb 119(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 156(%rdi) movw %r10w, 158(%rdi) movb 120(%rsi), %r8b movb 121(%rsi), %r9b movb 122(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 160(%rdi) movw %r10w, 162(%rdi) movb 123(%rsi), %r8b movb 124(%rsi), %r9b movb 125(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 164(%rdi) movw %r10w, 166(%rdi) movb 126(%rsi), %r8b movb 127(%rsi), %r9b movb 128(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 168(%rdi) movw %r10w, 170(%rdi) movb 129(%rsi), %r8b movb 130(%rsi), %r9b movb 131(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 172(%rdi) movw %r10w, 174(%rdi) movb 132(%rsi), %r8b movb 133(%rsi), %r9b movb 134(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 176(%rdi) movw %r10w, 178(%rdi) movb 135(%rsi), %r8b movb 136(%rsi), %r9b movb 137(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 180(%rdi) movw %r10w, 182(%rdi) movb 138(%rsi), %r8b movb 139(%rsi), %r9b movb 140(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 184(%rdi) movw %r10w, 186(%rdi) movb 141(%rsi), %r8b movb 142(%rsi), %r9b movb 143(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 188(%rdi) movw %r10w, 190(%rdi) movb 144(%rsi), %r8b movb 145(%rsi), %r9b movb 146(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 192(%rdi) movw %r10w, 194(%rdi) movb 147(%rsi), %r8b movb 148(%rsi), %r9b movb 149(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 196(%rdi) movw %r10w, 198(%rdi) movb 150(%rsi), %r8b movb 151(%rsi), %r9b movb 152(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 200(%rdi) movw %r10w, 202(%rdi) movb 153(%rsi), %r8b movb 154(%rsi), %r9b movb 155(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 204(%rdi) movw %r10w, 206(%rdi) movb 156(%rsi), %r8b movb 157(%rsi), %r9b movb 158(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 208(%rdi) movw %r10w, 210(%rdi) movb 159(%rsi), %r8b movb 160(%rsi), %r9b movb 161(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 212(%rdi) movw %r10w, 214(%rdi) movb 162(%rsi), %r8b movb 163(%rsi), %r9b movb 164(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 216(%rdi) movw %r10w, 218(%rdi) movb 165(%rsi), %r8b movb 166(%rsi), %r9b movb 167(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 220(%rdi) movw %r10w, 222(%rdi) movb 168(%rsi), %r8b movb 169(%rsi), %r9b movb 170(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 224(%rdi) movw %r10w, 226(%rdi) movb 171(%rsi), %r8b movb 172(%rsi), %r9b movb 173(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 228(%rdi) movw %r10w, 230(%rdi) movb 174(%rsi), %r8b movb 175(%rsi), %r9b movb 176(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 232(%rdi) movw %r10w, 234(%rdi) movb 177(%rsi), %r8b movb 178(%rsi), %r9b movb 179(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 236(%rdi) movw %r10w, 238(%rdi) movb 180(%rsi), %r8b movb 181(%rsi), %r9b movb 182(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 240(%rdi) movw %r10w, 242(%rdi) movb 183(%rsi), %r8b movb 184(%rsi), %r9b movb 185(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 244(%rdi) movw %r10w, 246(%rdi) movb 186(%rsi), %r8b movb 187(%rsi), %r9b movb 188(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 248(%rdi) movw %r10w, 250(%rdi) movb 189(%rsi), %r8b movb 190(%rsi), %r9b movb 191(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 252(%rdi) movw %r10w, 254(%rdi) movb 192(%rsi), %r8b movb 193(%rsi), %r9b movb 194(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 256(%rdi) movw %r10w, 258(%rdi) movb 195(%rsi), %r8b movb 196(%rsi), %r9b movb 197(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 260(%rdi) movw %r10w, 262(%rdi) movb 198(%rsi), %r8b movb 199(%rsi), %r9b movb 200(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 264(%rdi) movw %r10w, 266(%rdi) movb 201(%rsi), %r8b movb 202(%rsi), %r9b movb 203(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 268(%rdi) movw %r10w, 270(%rdi) movb 204(%rsi), %r8b movb 205(%rsi), %r9b movb 206(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 272(%rdi) movw %r10w, 274(%rdi) movb 207(%rsi), %r8b movb 208(%rsi), %r9b movb 209(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 276(%rdi) movw %r10w, 278(%rdi) movb 210(%rsi), %r8b movb 211(%rsi), %r9b movb 212(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 280(%rdi) movw %r10w, 282(%rdi) movb 213(%rsi), %r8b movb 214(%rsi), %r9b movb 215(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 284(%rdi) movw %r10w, 286(%rdi) movb 216(%rsi), %r8b movb 217(%rsi), %r9b movb 218(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 288(%rdi) movw %r10w, 290(%rdi) movb 219(%rsi), %r8b movb 220(%rsi), %r9b movb 221(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 292(%rdi) movw %r10w, 294(%rdi) movb 222(%rsi), %r8b movb 223(%rsi), %r9b movb 224(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 296(%rdi) movw %r10w, 298(%rdi) movb 225(%rsi), %r8b movb 226(%rsi), %r9b movb 227(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 300(%rdi) movw %r10w, 302(%rdi) movb 228(%rsi), %r8b movb 229(%rsi), %r9b movb 230(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 304(%rdi) movw %r10w, 306(%rdi) movb 231(%rsi), %r8b movb 232(%rsi), %r9b movb 233(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 308(%rdi) movw %r10w, 310(%rdi) movb 234(%rsi), %r8b movb 235(%rsi), %r9b movb 236(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 312(%rdi) movw %r10w, 314(%rdi) movb 237(%rsi), %r8b movb 238(%rsi), %r9b movb 239(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 316(%rdi) movw %r10w, 318(%rdi) movb 240(%rsi), %r8b movb 241(%rsi), %r9b movb 242(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 320(%rdi) movw %r10w, 322(%rdi) movb 243(%rsi), %r8b movb 244(%rsi), %r9b movb 245(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 324(%rdi) movw %r10w, 326(%rdi) movb 246(%rsi), %r8b movb 247(%rsi), %r9b movb 248(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 328(%rdi) movw %r10w, 330(%rdi) movb 249(%rsi), %r8b movb 250(%rsi), %r9b movb 251(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 332(%rdi) movw %r10w, 334(%rdi) movb 252(%rsi), %r8b movb 253(%rsi), %r9b movb 254(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 336(%rdi) movw %r10w, 338(%rdi) movb 255(%rsi), %r8b movb 256(%rsi), %r9b movb 257(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 340(%rdi) movw %r10w, 342(%rdi) movb 258(%rsi), %r8b movb 259(%rsi), %r9b movb 260(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 344(%rdi) movw %r10w, 346(%rdi) movb 261(%rsi), %r8b movb 262(%rsi), %r9b movb 263(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 348(%rdi) movw %r10w, 350(%rdi) movb 264(%rsi), %r8b movb 265(%rsi), %r9b movb 266(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 352(%rdi) movw %r10w, 354(%rdi) movb 267(%rsi), %r8b movb 268(%rsi), %r9b movb 269(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 356(%rdi) movw %r10w, 358(%rdi) movb 270(%rsi), %r8b movb 271(%rsi), %r9b movb 272(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 360(%rdi) movw %r10w, 362(%rdi) movb 273(%rsi), %r8b movb 274(%rsi), %r9b movb 275(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 364(%rdi) movw %r10w, 366(%rdi) movb 276(%rsi), %r8b movb 277(%rsi), %r9b movb 278(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 368(%rdi) movw %r10w, 370(%rdi) movb 279(%rsi), %r8b movb 280(%rsi), %r9b movb 281(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 372(%rdi) movw %r10w, 374(%rdi) movb 282(%rsi), %r8b movb 283(%rsi), %r9b movb 284(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 376(%rdi) movw %r10w, 378(%rdi) movb 285(%rsi), %r8b movb 286(%rsi), %r9b movb 287(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 380(%rdi) movw %r10w, 382(%rdi) movb 288(%rsi), %r8b movb 289(%rsi), %r9b movb 290(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 384(%rdi) movw %r10w, 386(%rdi) movb 291(%rsi), %r8b movb 292(%rsi), %r9b movb 293(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 388(%rdi) movw %r10w, 390(%rdi) movb 294(%rsi), %r8b movb 295(%rsi), %r9b movb 296(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 392(%rdi) movw %r10w, 394(%rdi) movb 297(%rsi), %r8b movb 298(%rsi), %r9b movb 299(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 396(%rdi) movw %r10w, 398(%rdi) movb 300(%rsi), %r8b movb 301(%rsi), %r9b movb 302(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 400(%rdi) movw %r10w, 402(%rdi) movb 303(%rsi), %r8b movb 304(%rsi), %r9b movb 305(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 404(%rdi) movw %r10w, 406(%rdi) movb 306(%rsi), %r8b movb 307(%rsi), %r9b movb 308(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 408(%rdi) movw %r10w, 410(%rdi) movb 309(%rsi), %r8b movb 310(%rsi), %r9b movb 311(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 412(%rdi) movw %r10w, 414(%rdi) movb 312(%rsi), %r8b movb 313(%rsi), %r9b movb 314(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 416(%rdi) movw %r10w, 418(%rdi) movb 315(%rsi), %r8b movb 316(%rsi), %r9b movb 317(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 420(%rdi) movw %r10w, 422(%rdi) movb 318(%rsi), %r8b movb 319(%rsi), %r9b movb 320(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 424(%rdi) movw %r10w, 426(%rdi) movb 321(%rsi), %r8b movb 322(%rsi), %r9b movb 323(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 428(%rdi) movw %r10w, 430(%rdi) movb 324(%rsi), %r8b movb 325(%rsi), %r9b movb 326(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 432(%rdi) movw %r10w, 434(%rdi) movb 327(%rsi), %r8b movb 328(%rsi), %r9b movb 329(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 436(%rdi) movw %r10w, 438(%rdi) movb 330(%rsi), %r8b movb 331(%rsi), %r9b movb 332(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 440(%rdi) movw %r10w, 442(%rdi) movb 333(%rsi), %r8b movb 334(%rsi), %r9b movb 335(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 444(%rdi) movw %r10w, 446(%rdi) movb 336(%rsi), %r8b movb 337(%rsi), %r9b movb 338(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 448(%rdi) movw %r10w, 450(%rdi) movb 339(%rsi), %r8b movb 340(%rsi), %r9b movb 341(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 452(%rdi) movw %r10w, 454(%rdi) movb 342(%rsi), %r8b movb 343(%rsi), %r9b movb 344(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 456(%rdi) movw %r10w, 458(%rdi) movb 345(%rsi), %r8b movb 346(%rsi), %r9b movb 347(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 460(%rdi) movw %r10w, 462(%rdi) movb 348(%rsi), %r8b movb 349(%rsi), %r9b movb 350(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 464(%rdi) movw %r10w, 466(%rdi) movb 351(%rsi), %r8b movb 352(%rsi), %r9b movb 353(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 468(%rdi) movw %r10w, 470(%rdi) movb 354(%rsi), %r8b movb 355(%rsi), %r9b movb 356(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 472(%rdi) movw %r10w, 474(%rdi) movb 357(%rsi), %r8b movb 358(%rsi), %r9b movb 359(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 476(%rdi) movw %r10w, 478(%rdi) movb 360(%rsi), %r8b movb 361(%rsi), %r9b movb 362(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 480(%rdi) movw %r10w, 482(%rdi) movb 363(%rsi), %r8b movb 364(%rsi), %r9b movb 365(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 484(%rdi) movw %r10w, 486(%rdi) movb 366(%rsi), %r8b movb 367(%rsi), %r9b movb 368(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 488(%rdi) movw %r10w, 490(%rdi) movb 369(%rsi), %r8b movb 370(%rsi), %r9b movb 371(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 492(%rdi) movw %r10w, 494(%rdi) movb 372(%rsi), %r8b movb 373(%rsi), %r9b movb 374(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 496(%rdi) movw %r10w, 498(%rdi) movb 375(%rsi), %r8b movb 376(%rsi), %r9b movb 377(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 500(%rdi) movw %r10w, 502(%rdi) movb 378(%rsi), %r8b movb 379(%rsi), %r9b movb 380(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 504(%rdi) movw %r10w, 506(%rdi) movb 381(%rsi), %r8b movb 382(%rsi), %r9b movb 383(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 508(%rdi) movw %r10w, 510(%rdi) ret L_poly_decompress$1: movq $0, %rdi movq $0, %r8 jmp L_poly_decompress$2 L_poly_decompress$3: movb (%rsi,%rdi), %r9b movzbw %r9b, %r10w movzbw %r9b, %r9w andw $15, %r10w shrw $4, %r9w imulw $3329, %r10w, %r10w imulw $3329, %r9w, %r9w addw $8, %r10w addw $8, %r9w shrw $4, %r10w shrw $4, %r9w movw %r10w, (%rcx,%r8,2) incq %r8 movw %r9w, (%rcx,%r8,2) incq %r8 incq %rdi L_poly_decompress$2: cmpq $128, %rdi jb L_poly_decompress$3 ret L_i_poly_compress$1: call L_poly_csubq$1 L_i_poly_compress$4: movq $0, %rdx movq $0, %rsi jmp L_i_poly_compress$2 L_i_poly_compress$3: movw (%rcx,%rsi,2), %di movzwl %di, %edi shll $4, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $15, %edi incq %rsi movw (%rcx,%rsi,2), %r8w movzwl %r8w, %r8d shll $4, %r8d addl $1665, %r8d imull $80635, %r8d, %r8d shrl $28, %r8d andl $15, %r8d shll $4, %r8d orl %r8d, %edi movb %dil, (%rax,%rdx) incq %rdx incq %rsi L_i_poly_compress$2: cmpq $128, %rdx jb L_i_poly_compress$3 ret L_poly_compress$1: call L_poly_csubq$1 L_poly_compress$4: movq $0, %rdx movq $0, %rsi jmp L_poly_compress$2 L_poly_compress$3: movw (%rcx,%rsi,2), %di movzwl %di, %edi shll $4, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $15, %edi incq %rsi movw (%rcx,%rsi,2), %r8w movzwl %r8w, %r8d shll $4, %r8d addl $1665, %r8d imull $80635, %r8d, %r8d shrl $28, %r8d andl $15, %r8d shll $4, %r8d orl %r8d, %edi movb %dil, (%rax,%rdx) incq %rdx incq %rsi L_poly_compress$2: cmpq $128, %rdx jb L_poly_compress$3 ret L_poly_basemul$1: movq %rdi, 8(%rsp) movq $64, %rdi movq $0, %r8 jmp L_poly_basemul$2 L_poly_basemul$3: leaq glob_data + 448(%rip), %r9 movw (%r9,%rdi,2), %r9w incq %rdi movw (%rcx,%r8,2), %r10w movw (%rsi,%r8,2), %r11w incq %r8 movw (%rcx,%r8,2), %bx movw (%rsi,%r8,2), %bp addq $-1, %r8 movswl %bx, %r12d movswl %bp, %r13d imull %r13d, %r12d imull $62209, %r12d, %r13d shll $16, %r13d sarl $16, %r13d imull $3329, %r13d, %r13d subl %r13d, %r12d sarl $16, %r12d movswl %r12w, %r12d movswl %r9w, %r13d imull %r13d, %r12d imull $62209, %r12d, %r13d shll $16, %r13d sarl $16, %r13d imull $3329, %r13d, %r13d subl %r13d, %r12d sarl $16, %r12d movswl %r10w, %r13d movswl %r11w, %r14d imull %r14d, %r13d imull $62209, %r13d, %r14d shll $16, %r14d sarl $16, %r14d imull $3329, %r14d, %r14d subl %r14d, %r13d sarl $16, %r13d addw %r13w, %r12w movswl %r10w, %r10d movswl %bp, %ebp imull %ebp, %r10d imull $62209, %r10d, %ebp shll $16, %ebp sarl $16, %ebp imull $3329, %ebp, %ebp subl %ebp, %r10d sarl $16, %r10d movswl %bx, %ebx movswl %r11w, %r11d imull %r11d, %ebx imull $62209, %ebx, %r11d shll $16, %r11d sarl $16, %r11d imull $3329, %r11d, %r11d subl %r11d, %ebx sarl $16, %ebx addw %bx, %r10w movq 8(%rsp), %r11 movw %r12w, (%r11,%r8,2) incq %r8 movw %r10w, (%r11,%r8,2) movq %r11, 16(%rsp) negw %r9w incq %r8 movw (%rcx,%r8,2), %r10w movw (%rsi,%r8,2), %r11w incq %r8 movw (%rcx,%r8,2), %bx movw (%rsi,%r8,2), %bp addq $-1, %r8 movswl %bx, %r12d movswl %bp, %r13d imull %r13d, %r12d imull $62209, %r12d, %r13d shll $16, %r13d sarl $16, %r13d imull $3329, %r13d, %r13d subl %r13d, %r12d sarl $16, %r12d movswl %r12w, %r12d movswl %r9w, %r9d imull %r9d, %r12d imull $62209, %r12d, %r9d shll $16, %r9d sarl $16, %r9d imull $3329, %r9d, %r9d subl %r9d, %r12d sarl $16, %r12d movw %r12w, %r9w movswl %r10w, %r12d movswl %r11w, %r13d imull %r13d, %r12d imull $62209, %r12d, %r13d shll $16, %r13d sarl $16, %r13d imull $3329, %r13d, %r13d subl %r13d, %r12d sarl $16, %r12d addw %r12w, %r9w movswl %r10w, %r10d movswl %bp, %ebp imull %ebp, %r10d imull $62209, %r10d, %ebp shll $16, %ebp sarl $16, %ebp imull $3329, %ebp, %ebp subl %ebp, %r10d sarl $16, %r10d movswl %bx, %ebx movswl %r11w, %r11d imull %r11d, %ebx imull $62209, %ebx, %r11d shll $16, %r11d sarl $16, %r11d imull $3329, %r11d, %r11d subl %r11d, %ebx sarl $16, %ebx addw %bx, %r10w movq 16(%rsp), %r11 movw %r9w, (%r11,%r8,2) incq %r8 movw %r10w, (%r11,%r8,2) incq %r8 L_poly_basemul$2: cmpq $256, %r8 jb L_poly_basemul$3 ret L_poly_csubq$1: movq $0, %r8 jmp L_poly_csubq$2 L_poly_csubq$3: movw (%rcx,%r8,2), %r9w addw $-3329, %r9w movw %r9w, %r10w sarw $15, %r10w andw $3329, %r10w addw %r10w, %r9w movw %r9w, (%rcx,%r8,2) incq %r8 L_poly_csubq$2: cmpq $256, %r8 jb L_poly_csubq$3 ret L_poly_add2$1: movq $0, %rdi jmp L_poly_add2$2 L_poly_add2$3: movw (%rcx,%rdi,2), %r8w movw (%rsi,%rdi,2), %r9w addw %r9w, %r8w movw %r8w, (%rcx,%rdi,2) incq %rdi L_poly_add2$2: cmpq $256, %rdi jb L_poly_add2$3 ret L_shake256_64$1: movq %rax, 8(%rsp) movq %rcx, 16(%rsp) leaq 24(%rsp), %rcx xorq %rax, %rax movq %rax, (%rcx) movq %rax, 8(%rcx) movq %rax, 16(%rcx) movq %rax, 24(%rcx) movq %rax, 32(%rcx) movq %rax, 40(%rcx) movq %rax, 48(%rcx) movq %rax, 56(%rcx) movq %rax, 64(%rcx) movq %rax, 72(%rcx) movq %rax, 80(%rcx) movq %rax, 88(%rcx) movq %rax, 96(%rcx) movq %rax, 104(%rcx) movq %rax, 112(%rcx) movq %rax, 120(%rcx) movq %rax, 128(%rcx) movq %rax, 136(%rcx) movq %rax, 144(%rcx) movq %rax, 152(%rcx) movq %rax, 160(%rcx) movq %rax, 168(%rcx) movq %rax, 176(%rcx) movq %rax, 184(%rcx) movq %rax, 192(%rcx) movq (%rdx), %rax xorq %rax, (%rcx) movq 8(%rdx), %rax xorq %rax, 8(%rcx) movq 16(%rdx), %rax xorq %rax, 16(%rcx) movq 24(%rdx), %rax xorq %rax, 24(%rcx) movq 32(%rdx), %rax xorq %rax, 32(%rcx) movq 40(%rdx), %rax xorq %rax, 40(%rcx) movq 48(%rdx), %rax xorq %rax, 48(%rcx) movq 56(%rdx), %rax xorq %rax, 56(%rcx) xorb $31, 64(%rcx) xorb $-128, 135(%rcx) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_shake256_64$9: leaq 224(%rsp), %rsp movq 16(%rsp), %rax movq 8(%rsp), %rdx jmp L_shake256_64$6 L_shake256_64$7: movq (%rcx), %rsi movq %rsi, (%rdx) movq 8(%rcx), %rsi movq %rsi, 8(%rdx) movq 16(%rcx), %rsi movq %rsi, 16(%rdx) movq 24(%rcx), %rsi movq %rsi, 24(%rdx) movq 32(%rcx), %rsi movq %rsi, 32(%rdx) movq 40(%rcx), %rsi movq %rsi, 40(%rdx) movq 48(%rcx), %rsi movq %rsi, 48(%rdx) movq 56(%rcx), %rsi movq %rsi, 56(%rdx) movq 64(%rcx), %rsi movq %rsi, 64(%rdx) movq 72(%rcx), %rsi movq %rsi, 72(%rdx) movq 80(%rcx), %rsi movq %rsi, 80(%rdx) movq 88(%rcx), %rsi movq %rsi, 88(%rdx) movq 96(%rcx), %rsi movq %rsi, 96(%rdx) movq 104(%rcx), %rsi movq %rsi, 104(%rdx) movq 112(%rcx), %rsi movq %rsi, 112(%rdx) movq 120(%rcx), %rsi movq %rsi, 120(%rdx) movq 128(%rcx), %rsi movq %rsi, 128(%rdx) addq $136, %rdx addq $-136, %rax movq %rdx, 8(%rsp) movq %rax, 16(%rsp) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_shake256_64$8: leaq 224(%rsp), %rsp movq 16(%rsp), %rax movq 8(%rsp), %rdx L_shake256_64$6: cmpq $136, %rax jnbe L_shake256_64$7 movq %rax, 8(%rsp) shrq $3, %rax movq $0, %rsi jmp L_shake256_64$4 L_shake256_64$5: movq (%rcx,%rsi,8), %rdi movq %rdi, (%rdx,%rsi,8) incq %rsi L_shake256_64$4: cmpq %rax, %rsi jb L_shake256_64$5 shlq $3, %rsi movq 8(%rsp), %rax jmp L_shake256_64$2 L_shake256_64$3: movb (%rcx,%rsi), %dil movb %dil, (%rdx,%rsi) incq %rsi L_shake256_64$2: cmpq %rax, %rsi jb L_shake256_64$3 ret L_sha3_512_64$1: movq %rax, 8(%rsp) leaq 16(%rsp), %rcx xorq %rax, %rax movq %rax, (%rcx) movq %rax, 8(%rcx) movq %rax, 16(%rcx) movq %rax, 24(%rcx) movq %rax, 32(%rcx) movq %rax, 40(%rcx) movq %rax, 48(%rcx) movq %rax, 56(%rcx) movq %rax, 64(%rcx) movq %rax, 72(%rcx) movq %rax, 80(%rcx) movq %rax, 88(%rcx) movq %rax, 96(%rcx) movq %rax, 104(%rcx) movq %rax, 112(%rcx) movq %rax, 120(%rcx) movq %rax, 128(%rcx) movq %rax, 136(%rcx) movq %rax, 144(%rcx) movq %rax, 152(%rcx) movq %rax, 160(%rcx) movq %rax, 168(%rcx) movq %rax, 176(%rcx) movq %rax, 184(%rcx) movq %rax, 192(%rcx) movq (%rdx), %rax xorq %rax, (%rcx) movq 8(%rdx), %rax xorq %rax, 8(%rcx) movq 16(%rdx), %rax xorq %rax, 16(%rcx) movq 24(%rdx), %rax xorq %rax, 24(%rcx) movq 32(%rdx), %rax xorq %rax, 32(%rcx) movq 40(%rdx), %rax xorq %rax, 40(%rcx) movq 48(%rdx), %rax xorq %rax, 48(%rcx) movq 56(%rdx), %rax xorq %rax, 56(%rcx) xorb $6, 64(%rcx) xorb $-128, 71(%rcx) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_sha3_512_64$2: leaq 224(%rsp), %rsp movq 8(%rsp), %rax movq (%rcx), %rdx movq %rdx, (%rax) movq 8(%rcx), %rdx movq %rdx, 8(%rax) movq 16(%rcx), %rdx movq %rdx, 16(%rax) movq 24(%rcx), %rdx movq %rdx, 24(%rax) movq 32(%rcx), %rdx movq %rdx, 32(%rax) movq 40(%rcx), %rdx movq %rdx, 40(%rax) movq 48(%rcx), %rdx movq %rdx, 48(%rax) movq 56(%rcx), %rcx movq %rcx, 56(%rax) ret L_sha3_256_32$1: movq %rax, 8(%rsp) leaq 16(%rsp), %rcx xorq %rax, %rax movq %rax, (%rcx) movq %rax, 8(%rcx) movq %rax, 16(%rcx) movq %rax, 24(%rcx) movq %rax, 32(%rcx) movq %rax, 40(%rcx) movq %rax, 48(%rcx) movq %rax, 56(%rcx) movq %rax, 64(%rcx) movq %rax, 72(%rcx) movq %rax, 80(%rcx) movq %rax, 88(%rcx) movq %rax, 96(%rcx) movq %rax, 104(%rcx) movq %rax, 112(%rcx) movq %rax, 120(%rcx) movq %rax, 128(%rcx) movq %rax, 136(%rcx) movq %rax, 144(%rcx) movq %rax, 152(%rcx) movq %rax, 160(%rcx) movq %rax, 168(%rcx) movq %rax, 176(%rcx) movq %rax, 184(%rcx) movq %rax, 192(%rcx) movq (%rdx), %rax movq %rax, (%rcx) movq 8(%rdx), %rax movq %rax, 8(%rcx) movq 16(%rdx), %rax movq %rax, 16(%rcx) movq 24(%rdx), %rax movq %rax, 24(%rcx) xorb $6, 32(%rcx) movb $-128, 135(%rcx) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_sha3_256_32$2: leaq 224(%rsp), %rsp movq 8(%rsp), %rax movq (%rcx), %rdx movq %rdx, (%rax) movq 8(%rcx), %rdx movq %rdx, 8(%rax) movq 16(%rcx), %rdx movq %rdx, 16(%rax) movq 24(%rcx), %rcx movq %rcx, 24(%rax) ret L_sha3_256$1: movq %rcx, 8(%rsp) leaq 40(%rsp), %rcx xorq %rdx, %rdx movq %rdx, (%rcx) movq %rdx, 8(%rcx) movq %rdx, 16(%rcx) movq %rdx, 24(%rcx) movq %rdx, 32(%rcx) movq %rdx, 40(%rcx) movq %rdx, 48(%rcx) movq %rdx, 56(%rcx) movq %rdx, 64(%rcx) movq %rdx, 72(%rcx) movq %rdx, 80(%rcx) movq %rdx, 88(%rcx) movq %rdx, 96(%rcx) movq %rdx, 104(%rcx) movq %rdx, 112(%rcx) movq %rdx, 120(%rcx) movq %rdx, 128(%rcx) movq %rdx, 136(%rcx) movq %rdx, 144(%rcx) movq %rdx, 152(%rcx) movq %rdx, 160(%rcx) movq %rdx, 168(%rcx) movq %rdx, 176(%rcx) movq %rdx, 184(%rcx) movq %rdx, 192(%rcx) movq $136, %rdx jmp L_sha3_256$7 L_sha3_256$8: movq %rdx, %rdi shrq $3, %rdi movq $0, %r8 jmp L_sha3_256$10 L_sha3_256$11: movq (%rsi,%r8,8), %r9 xorq %r9, (%rcx,%r8,8) incq %r8 L_sha3_256$10: cmpq %rdi, %r8 jb L_sha3_256$11 addq %rdx, %rsi subq %rdx, %rax movq %rsi, 16(%rsp) movq %rax, 24(%rsp) movq %rdx, 32(%rsp) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_sha3_256$9: leaq 224(%rsp), %rsp movq 16(%rsp), %rsi movq 24(%rsp), %rax movq 32(%rsp), %rdx L_sha3_256$7: cmpq %rdx, %rax jnb L_sha3_256$8 movb $6, %dil movq %rax, %r8 shrq $3, %r8 movq $0, %r9 jmp L_sha3_256$5 L_sha3_256$6: movq (%rsi,%r9,8), %r10 xorq %r10, (%rcx,%r9,8) incq %r9 L_sha3_256$5: cmpq %r8, %r9 jb L_sha3_256$6 shlq $3, %r9 jmp L_sha3_256$3 L_sha3_256$4: movb (%rsi,%r9), %r8b xorb %r8b, (%rcx,%r9) incq %r9 L_sha3_256$3: cmpq %rax, %r9 jb L_sha3_256$4 xorb %dil, (%rcx,%r9) addq $-1, %rdx xorb $-128, (%rcx,%rdx) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_sha3_256$2: leaq 224(%rsp), %rsp movq 8(%rsp), %rax movq (%rcx), %rdx movq %rdx, (%rax) movq 8(%rcx), %rdx movq %rdx, 8(%rax) movq 16(%rcx), %rdx movq %rdx, 16(%rax) movq 24(%rcx), %rcx movq %rcx, 24(%rax) ret L_shake128_squeezeblock$1: movq %rdx, 8(%rsp) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_shake128_squeezeblock$2: leaq 224(%rsp), %rsp movq 8(%rsp), %rdx movb (%rcx), %sil movb %sil, (%rdx) movb 1(%rcx), %sil movb %sil, 1(%rdx) movb 2(%rcx), %sil movb %sil, 2(%rdx) movb 3(%rcx), %sil movb %sil, 3(%rdx) movb 4(%rcx), %sil movb %sil, 4(%rdx) movb 5(%rcx), %sil movb %sil, 5(%rdx) movb 6(%rcx), %sil movb %sil, 6(%rdx) movb 7(%rcx), %sil movb %sil, 7(%rdx) movb 8(%rcx), %sil movb %sil, 8(%rdx) movb 9(%rcx), %sil movb %sil, 9(%rdx) movb 10(%rcx), %sil movb %sil, 10(%rdx) movb 11(%rcx), %sil movb %sil, 11(%rdx) movb 12(%rcx), %sil movb %sil, 12(%rdx) movb 13(%rcx), %sil movb %sil, 13(%rdx) movb 14(%rcx), %sil movb %sil, 14(%rdx) movb 15(%rcx), %sil movb %sil, 15(%rdx) movb 16(%rcx), %sil movb %sil, 16(%rdx) movb 17(%rcx), %sil movb %sil, 17(%rdx) movb 18(%rcx), %sil movb %sil, 18(%rdx) movb 19(%rcx), %sil movb %sil, 19(%rdx) movb 20(%rcx), %sil movb %sil, 20(%rdx) movb 21(%rcx), %sil movb %sil, 21(%rdx) movb 22(%rcx), %sil movb %sil, 22(%rdx) movb 23(%rcx), %sil movb %sil, 23(%rdx) movb 24(%rcx), %sil movb %sil, 24(%rdx) movb 25(%rcx), %sil movb %sil, 25(%rdx) movb 26(%rcx), %sil movb %sil, 26(%rdx) movb 27(%rcx), %sil movb %sil, 27(%rdx) movb 28(%rcx), %sil movb %sil, 28(%rdx) movb 29(%rcx), %sil movb %sil, 29(%rdx) movb 30(%rcx), %sil movb %sil, 30(%rdx) movb 31(%rcx), %sil movb %sil, 31(%rdx) movb 32(%rcx), %sil movb %sil, 32(%rdx) movb 33(%rcx), %sil movb %sil, 33(%rdx) movb 34(%rcx), %sil movb %sil, 34(%rdx) movb 35(%rcx), %sil movb %sil, 35(%rdx) movb 36(%rcx), %sil movb %sil, 36(%rdx) movb 37(%rcx), %sil movb %sil, 37(%rdx) movb 38(%rcx), %sil movb %sil, 38(%rdx) movb 39(%rcx), %sil movb %sil, 39(%rdx) movb 40(%rcx), %sil movb %sil, 40(%rdx) movb 41(%rcx), %sil movb %sil, 41(%rdx) movb 42(%rcx), %sil movb %sil, 42(%rdx) movb 43(%rcx), %sil movb %sil, 43(%rdx) movb 44(%rcx), %sil movb %sil, 44(%rdx) movb 45(%rcx), %sil movb %sil, 45(%rdx) movb 46(%rcx), %sil movb %sil, 46(%rdx) movb 47(%rcx), %sil movb %sil, 47(%rdx) movb 48(%rcx), %sil movb %sil, 48(%rdx) movb 49(%rcx), %sil movb %sil, 49(%rdx) movb 50(%rcx), %sil movb %sil, 50(%rdx) movb 51(%rcx), %sil movb %sil, 51(%rdx) movb 52(%rcx), %sil movb %sil, 52(%rdx) movb 53(%rcx), %sil movb %sil, 53(%rdx) movb 54(%rcx), %sil movb %sil, 54(%rdx) movb 55(%rcx), %sil movb %sil, 55(%rdx) movb 56(%rcx), %sil movb %sil, 56(%rdx) movb 57(%rcx), %sil movb %sil, 57(%rdx) movb 58(%rcx), %sil movb %sil, 58(%rdx) movb 59(%rcx), %sil movb %sil, 59(%rdx) movb 60(%rcx), %sil movb %sil, 60(%rdx) movb 61(%rcx), %sil movb %sil, 61(%rdx) movb 62(%rcx), %sil movb %sil, 62(%rdx) movb 63(%rcx), %sil movb %sil, 63(%rdx) movb 64(%rcx), %sil movb %sil, 64(%rdx) movb 65(%rcx), %sil movb %sil, 65(%rdx) movb 66(%rcx), %sil movb %sil, 66(%rdx) movb 67(%rcx), %sil movb %sil, 67(%rdx) movb 68(%rcx), %sil movb %sil, 68(%rdx) movb 69(%rcx), %sil movb %sil, 69(%rdx) movb 70(%rcx), %sil movb %sil, 70(%rdx) movb 71(%rcx), %sil movb %sil, 71(%rdx) movb 72(%rcx), %sil movb %sil, 72(%rdx) movb 73(%rcx), %sil movb %sil, 73(%rdx) movb 74(%rcx), %sil movb %sil, 74(%rdx) movb 75(%rcx), %sil movb %sil, 75(%rdx) movb 76(%rcx), %sil movb %sil, 76(%rdx) movb 77(%rcx), %sil movb %sil, 77(%rdx) movb 78(%rcx), %sil movb %sil, 78(%rdx) movb 79(%rcx), %sil movb %sil, 79(%rdx) movb 80(%rcx), %sil movb %sil, 80(%rdx) movb 81(%rcx), %sil movb %sil, 81(%rdx) movb 82(%rcx), %sil movb %sil, 82(%rdx) movb 83(%rcx), %sil movb %sil, 83(%rdx) movb 84(%rcx), %sil movb %sil, 84(%rdx) movb 85(%rcx), %sil movb %sil, 85(%rdx) movb 86(%rcx), %sil movb %sil, 86(%rdx) movb 87(%rcx), %sil movb %sil, 87(%rdx) movb 88(%rcx), %sil movb %sil, 88(%rdx) movb 89(%rcx), %sil movb %sil, 89(%rdx) movb 90(%rcx), %sil movb %sil, 90(%rdx) movb 91(%rcx), %sil movb %sil, 91(%rdx) movb 92(%rcx), %sil movb %sil, 92(%rdx) movb 93(%rcx), %sil movb %sil, 93(%rdx) movb 94(%rcx), %sil movb %sil, 94(%rdx) movb 95(%rcx), %sil movb %sil, 95(%rdx) movb 96(%rcx), %sil movb %sil, 96(%rdx) movb 97(%rcx), %sil movb %sil, 97(%rdx) movb 98(%rcx), %sil movb %sil, 98(%rdx) movb 99(%rcx), %sil movb %sil, 99(%rdx) movb 100(%rcx), %sil movb %sil, 100(%rdx) movb 101(%rcx), %sil movb %sil, 101(%rdx) movb 102(%rcx), %sil movb %sil, 102(%rdx) movb 103(%rcx), %sil movb %sil, 103(%rdx) movb 104(%rcx), %sil movb %sil, 104(%rdx) movb 105(%rcx), %sil movb %sil, 105(%rdx) movb 106(%rcx), %sil movb %sil, 106(%rdx) movb 107(%rcx), %sil movb %sil, 107(%rdx) movb 108(%rcx), %sil movb %sil, 108(%rdx) movb 109(%rcx), %sil movb %sil, 109(%rdx) movb 110(%rcx), %sil movb %sil, 110(%rdx) movb 111(%rcx), %sil movb %sil, 111(%rdx) movb 112(%rcx), %sil movb %sil, 112(%rdx) movb 113(%rcx), %sil movb %sil, 113(%rdx) movb 114(%rcx), %sil movb %sil, 114(%rdx) movb 115(%rcx), %sil movb %sil, 115(%rdx) movb 116(%rcx), %sil movb %sil, 116(%rdx) movb 117(%rcx), %sil movb %sil, 117(%rdx) movb 118(%rcx), %sil movb %sil, 118(%rdx) movb 119(%rcx), %sil movb %sil, 119(%rdx) movb 120(%rcx), %sil movb %sil, 120(%rdx) movb 121(%rcx), %sil movb %sil, 121(%rdx) movb 122(%rcx), %sil movb %sil, 122(%rdx) movb 123(%rcx), %sil movb %sil, 123(%rdx) movb 124(%rcx), %sil movb %sil, 124(%rdx) movb 125(%rcx), %sil movb %sil, 125(%rdx) movb 126(%rcx), %sil movb %sil, 126(%rdx) movb 127(%rcx), %sil movb %sil, 127(%rdx) movb 128(%rcx), %sil movb %sil, 128(%rdx) movb 129(%rcx), %sil movb %sil, 129(%rdx) movb 130(%rcx), %sil movb %sil, 130(%rdx) movb 131(%rcx), %sil movb %sil, 131(%rdx) movb 132(%rcx), %sil movb %sil, 132(%rdx) movb 133(%rcx), %sil movb %sil, 133(%rdx) movb 134(%rcx), %sil movb %sil, 134(%rdx) movb 135(%rcx), %sil movb %sil, 135(%rdx) movb 136(%rcx), %sil movb %sil, 136(%rdx) movb 137(%rcx), %sil movb %sil, 137(%rdx) movb 138(%rcx), %sil movb %sil, 138(%rdx) movb 139(%rcx), %sil movb %sil, 139(%rdx) movb 140(%rcx), %sil movb %sil, 140(%rdx) movb 141(%rcx), %sil movb %sil, 141(%rdx) movb 142(%rcx), %sil movb %sil, 142(%rdx) movb 143(%rcx), %sil movb %sil, 143(%rdx) movb 144(%rcx), %sil movb %sil, 144(%rdx) movb 145(%rcx), %sil movb %sil, 145(%rdx) movb 146(%rcx), %sil movb %sil, 146(%rdx) movb 147(%rcx), %sil movb %sil, 147(%rdx) movb 148(%rcx), %sil movb %sil, 148(%rdx) movb 149(%rcx), %sil movb %sil, 149(%rdx) movb 150(%rcx), %sil movb %sil, 150(%rdx) movb 151(%rcx), %sil movb %sil, 151(%rdx) movb 152(%rcx), %sil movb %sil, 152(%rdx) movb 153(%rcx), %sil movb %sil, 153(%rdx) movb 154(%rcx), %sil movb %sil, 154(%rdx) movb 155(%rcx), %sil movb %sil, 155(%rdx) movb 156(%rcx), %sil movb %sil, 156(%rdx) movb 157(%rcx), %sil movb %sil, 157(%rdx) movb 158(%rcx), %sil movb %sil, 158(%rdx) movb 159(%rcx), %sil movb %sil, 159(%rdx) movb 160(%rcx), %sil movb %sil, 160(%rdx) movb 161(%rcx), %sil movb %sil, 161(%rdx) movb 162(%rcx), %sil movb %sil, 162(%rdx) movb 163(%rcx), %sil movb %sil, 163(%rdx) movb 164(%rcx), %sil movb %sil, 164(%rdx) movb 165(%rcx), %sil movb %sil, 165(%rdx) movb 166(%rcx), %sil movb %sil, 166(%rdx) movb 167(%rcx), %cl movb %cl, 167(%rdx) ret L_shake128_absorb34$1: xorq %rsi, %rsi movq %rsi, (%rcx) movq %rsi, 8(%rcx) movq %rsi, 16(%rcx) movq %rsi, 24(%rcx) movq %rsi, 32(%rcx) movq %rsi, 40(%rcx) movq %rsi, 48(%rcx) movq %rsi, 56(%rcx) movq %rsi, 64(%rcx) movq %rsi, 72(%rcx) movq %rsi, 80(%rcx) movq %rsi, 88(%rcx) movq %rsi, 96(%rcx) movq %rsi, 104(%rcx) movq %rsi, 112(%rcx) movq %rsi, 120(%rcx) movq %rsi, 128(%rcx) movq %rsi, 136(%rcx) movq %rsi, 144(%rcx) movq %rsi, 152(%rcx) movq %rsi, 160(%rcx) movq %rsi, 168(%rcx) movq %rsi, 176(%rcx) movq %rsi, 184(%rcx) movq %rsi, 192(%rcx) movb (%rdx), %sil xorb %sil, (%rcx) movb 1(%rdx), %sil xorb %sil, 1(%rcx) movb 2(%rdx), %sil xorb %sil, 2(%rcx) movb 3(%rdx), %sil xorb %sil, 3(%rcx) movb 4(%rdx), %sil xorb %sil, 4(%rcx) movb 5(%rdx), %sil xorb %sil, 5(%rcx) movb 6(%rdx), %sil xorb %sil, 6(%rcx) movb 7(%rdx), %sil xorb %sil, 7(%rcx) movb 8(%rdx), %sil xorb %sil, 8(%rcx) movb 9(%rdx), %sil xorb %sil, 9(%rcx) movb 10(%rdx), %sil xorb %sil, 10(%rcx) movb 11(%rdx), %sil xorb %sil, 11(%rcx) movb 12(%rdx), %sil xorb %sil, 12(%rcx) movb 13(%rdx), %sil xorb %sil, 13(%rcx) movb 14(%rdx), %sil xorb %sil, 14(%rcx) movb 15(%rdx), %sil xorb %sil, 15(%rcx) movb 16(%rdx), %sil xorb %sil, 16(%rcx) movb 17(%rdx), %sil xorb %sil, 17(%rcx) movb 18(%rdx), %sil xorb %sil, 18(%rcx) movb 19(%rdx), %sil xorb %sil, 19(%rcx) movb 20(%rdx), %sil xorb %sil, 20(%rcx) movb 21(%rdx), %sil xorb %sil, 21(%rcx) movb 22(%rdx), %sil xorb %sil, 22(%rcx) movb 23(%rdx), %sil xorb %sil, 23(%rcx) movb 24(%rdx), %sil xorb %sil, 24(%rcx) movb 25(%rdx), %sil xorb %sil, 25(%rcx) movb 26(%rdx), %sil xorb %sil, 26(%rcx) movb 27(%rdx), %sil xorb %sil, 27(%rcx) movb 28(%rdx), %sil xorb %sil, 28(%rcx) movb 29(%rdx), %sil xorb %sil, 29(%rcx) movb 30(%rdx), %sil xorb %sil, 30(%rcx) movb 31(%rdx), %sil xorb %sil, 31(%rcx) movb 32(%rdx), %sil xorb %sil, 32(%rcx) movb 33(%rdx), %dl xorb %dl, 33(%rcx) xorb $31, 34(%rcx) xorb $-128, 167(%rcx) ret L_sha3_512_32$1: movq %rcx, 8(%rsp) leaq 16(%rsp), %rcx xorq %rdx, %rdx movq %rdx, (%rcx) movq %rdx, 8(%rcx) movq %rdx, 16(%rcx) movq %rdx, 24(%rcx) movq %rdx, 32(%rcx) movq %rdx, 40(%rcx) movq %rdx, 48(%rcx) movq %rdx, 56(%rcx) movq %rdx, 64(%rcx) movq %rdx, 72(%rcx) movq %rdx, 80(%rcx) movq %rdx, 88(%rcx) movq %rdx, 96(%rcx) movq %rdx, 104(%rcx) movq %rdx, 112(%rcx) movq %rdx, 120(%rcx) movq %rdx, 128(%rcx) movq %rdx, 136(%rcx) movq %rdx, 144(%rcx) movq %rdx, 152(%rcx) movq %rdx, 160(%rcx) movq %rdx, 168(%rcx) movq %rdx, 176(%rcx) movq %rdx, 184(%rcx) movq %rdx, 192(%rcx) movb (%rax), %dl xorb %dl, (%rcx) movb 1(%rax), %dl xorb %dl, 1(%rcx) movb 2(%rax), %dl xorb %dl, 2(%rcx) movb 3(%rax), %dl xorb %dl, 3(%rcx) movb 4(%rax), %dl xorb %dl, 4(%rcx) movb 5(%rax), %dl xorb %dl, 5(%rcx) movb 6(%rax), %dl xorb %dl, 6(%rcx) movb 7(%rax), %dl xorb %dl, 7(%rcx) movb 8(%rax), %dl xorb %dl, 8(%rcx) movb 9(%rax), %dl xorb %dl, 9(%rcx) movb 10(%rax), %dl xorb %dl, 10(%rcx) movb 11(%rax), %dl xorb %dl, 11(%rcx) movb 12(%rax), %dl xorb %dl, 12(%rcx) movb 13(%rax), %dl xorb %dl, 13(%rcx) movb 14(%rax), %dl xorb %dl, 14(%rcx) movb 15(%rax), %dl xorb %dl, 15(%rcx) movb 16(%rax), %dl xorb %dl, 16(%rcx) movb 17(%rax), %dl xorb %dl, 17(%rcx) movb 18(%rax), %dl xorb %dl, 18(%rcx) movb 19(%rax), %dl xorb %dl, 19(%rcx) movb 20(%rax), %dl xorb %dl, 20(%rcx) movb 21(%rax), %dl xorb %dl, 21(%rcx) movb 22(%rax), %dl xorb %dl, 22(%rcx) movb 23(%rax), %dl xorb %dl, 23(%rcx) movb 24(%rax), %dl xorb %dl, 24(%rcx) movb 25(%rax), %dl xorb %dl, 25(%rcx) movb 26(%rax), %dl xorb %dl, 26(%rcx) movb 27(%rax), %dl xorb %dl, 27(%rcx) movb 28(%rax), %dl xorb %dl, 28(%rcx) movb 29(%rax), %dl xorb %dl, 29(%rcx) movb 30(%rax), %dl xorb %dl, 30(%rcx) movb 31(%rax), %al xorb %al, 31(%rcx) xorb $6, 32(%rcx) xorb $-128, 71(%rcx) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_sha3_512_32$2: leaq 224(%rsp), %rsp movq 8(%rsp), %rax movb (%rcx), %dl movb %dl, (%rax) movb 1(%rcx), %dl movb %dl, 1(%rax) movb 2(%rcx), %dl movb %dl, 2(%rax) movb 3(%rcx), %dl movb %dl, 3(%rax) movb 4(%rcx), %dl movb %dl, 4(%rax) movb 5(%rcx), %dl movb %dl, 5(%rax) movb 6(%rcx), %dl movb %dl, 6(%rax) movb 7(%rcx), %dl movb %dl, 7(%rax) movb 8(%rcx), %dl movb %dl, 8(%rax) movb 9(%rcx), %dl movb %dl, 9(%rax) movb 10(%rcx), %dl movb %dl, 10(%rax) movb 11(%rcx), %dl movb %dl, 11(%rax) movb 12(%rcx), %dl movb %dl, 12(%rax) movb 13(%rcx), %dl movb %dl, 13(%rax) movb 14(%rcx), %dl movb %dl, 14(%rax) movb 15(%rcx), %dl movb %dl, 15(%rax) movb 16(%rcx), %dl movb %dl, 16(%rax) movb 17(%rcx), %dl movb %dl, 17(%rax) movb 18(%rcx), %dl movb %dl, 18(%rax) movb 19(%rcx), %dl movb %dl, 19(%rax) movb 20(%rcx), %dl movb %dl, 20(%rax) movb 21(%rcx), %dl movb %dl, 21(%rax) movb 22(%rcx), %dl movb %dl, 22(%rax) movb 23(%rcx), %dl movb %dl, 23(%rax) movb 24(%rcx), %dl movb %dl, 24(%rax) movb 25(%rcx), %dl movb %dl, 25(%rax) movb 26(%rcx), %dl movb %dl, 26(%rax) movb 27(%rcx), %dl movb %dl, 27(%rax) movb 28(%rcx), %dl movb %dl, 28(%rax) movb 29(%rcx), %dl movb %dl, 29(%rax) movb 30(%rcx), %dl movb %dl, 30(%rax) movb 31(%rcx), %dl movb %dl, 31(%rax) movb 32(%rcx), %dl movb %dl, 32(%rax) movb 33(%rcx), %dl movb %dl, 33(%rax) movb 34(%rcx), %dl movb %dl, 34(%rax) movb 35(%rcx), %dl movb %dl, 35(%rax) movb 36(%rcx), %dl movb %dl, 36(%rax) movb 37(%rcx), %dl movb %dl, 37(%rax) movb 38(%rcx), %dl movb %dl, 38(%rax) movb 39(%rcx), %dl movb %dl, 39(%rax) movb 40(%rcx), %dl movb %dl, 40(%rax) movb 41(%rcx), %dl movb %dl, 41(%rax) movb 42(%rcx), %dl movb %dl, 42(%rax) movb 43(%rcx), %dl movb %dl, 43(%rax) movb 44(%rcx), %dl movb %dl, 44(%rax) movb 45(%rcx), %dl movb %dl, 45(%rax) movb 46(%rcx), %dl movb %dl, 46(%rax) movb 47(%rcx), %dl movb %dl, 47(%rax) movb 48(%rcx), %dl movb %dl, 48(%rax) movb 49(%rcx), %dl movb %dl, 49(%rax) movb 50(%rcx), %dl movb %dl, 50(%rax) movb 51(%rcx), %dl movb %dl, 51(%rax) movb 52(%rcx), %dl movb %dl, 52(%rax) movb 53(%rcx), %dl movb %dl, 53(%rax) movb 54(%rcx), %dl movb %dl, 54(%rax) movb 55(%rcx), %dl movb %dl, 55(%rax) movb 56(%rcx), %dl movb %dl, 56(%rax) movb 57(%rcx), %dl movb %dl, 57(%rax) movb 58(%rcx), %dl movb %dl, 58(%rax) movb 59(%rcx), %dl movb %dl, 59(%rax) movb 60(%rcx), %dl movb %dl, 60(%rax) movb 61(%rcx), %dl movb %dl, 61(%rax) movb 62(%rcx), %dl movb %dl, 62(%rax) movb 63(%rcx), %cl movb %cl, 63(%rax) ret L_shake256_128_33$1: movq %rcx, 8(%rsp) leaq 16(%rsp), %rcx xorq %rsi, %rsi movq %rsi, (%rcx) movq %rsi, 8(%rcx) movq %rsi, 16(%rcx) movq %rsi, 24(%rcx) movq %rsi, 32(%rcx) movq %rsi, 40(%rcx) movq %rsi, 48(%rcx) movq %rsi, 56(%rcx) movq %rsi, 64(%rcx) movq %rsi, 72(%rcx) movq %rsi, 80(%rcx) movq %rsi, 88(%rcx) movq %rsi, 96(%rcx) movq %rsi, 104(%rcx) movq %rsi, 112(%rcx) movq %rsi, 120(%rcx) movq %rsi, 128(%rcx) movq %rsi, 136(%rcx) movq %rsi, 144(%rcx) movq %rsi, 152(%rcx) movq %rsi, 160(%rcx) movq %rsi, 168(%rcx) movq %rsi, 176(%rcx) movq %rsi, 184(%rcx) movq %rsi, 192(%rcx) movb (%rdx), %sil xorb %sil, (%rcx) movb 1(%rdx), %sil xorb %sil, 1(%rcx) movb 2(%rdx), %sil xorb %sil, 2(%rcx) movb 3(%rdx), %sil xorb %sil, 3(%rcx) movb 4(%rdx), %sil xorb %sil, 4(%rcx) movb 5(%rdx), %sil xorb %sil, 5(%rcx) movb 6(%rdx), %sil xorb %sil, 6(%rcx) movb 7(%rdx), %sil xorb %sil, 7(%rcx) movb 8(%rdx), %sil xorb %sil, 8(%rcx) movb 9(%rdx), %sil xorb %sil, 9(%rcx) movb 10(%rdx), %sil xorb %sil, 10(%rcx) movb 11(%rdx), %sil xorb %sil, 11(%rcx) movb 12(%rdx), %sil xorb %sil, 12(%rcx) movb 13(%rdx), %sil xorb %sil, 13(%rcx) movb 14(%rdx), %sil xorb %sil, 14(%rcx) movb 15(%rdx), %sil xorb %sil, 15(%rcx) movb 16(%rdx), %sil xorb %sil, 16(%rcx) movb 17(%rdx), %sil xorb %sil, 17(%rcx) movb 18(%rdx), %sil xorb %sil, 18(%rcx) movb 19(%rdx), %sil xorb %sil, 19(%rcx) movb 20(%rdx), %sil xorb %sil, 20(%rcx) movb 21(%rdx), %sil xorb %sil, 21(%rcx) movb 22(%rdx), %sil xorb %sil, 22(%rcx) movb 23(%rdx), %sil xorb %sil, 23(%rcx) movb 24(%rdx), %sil xorb %sil, 24(%rcx) movb 25(%rdx), %sil xorb %sil, 25(%rcx) movb 26(%rdx), %sil xorb %sil, 26(%rcx) movb 27(%rdx), %sil xorb %sil, 27(%rcx) movb 28(%rdx), %sil xorb %sil, 28(%rcx) movb 29(%rdx), %sil xorb %sil, 29(%rcx) movb 30(%rdx), %sil xorb %sil, 30(%rcx) movb 31(%rdx), %sil xorb %sil, 31(%rcx) movb 32(%rdx), %dl xorb %dl, 32(%rcx) xorb $31, 33(%rcx) xorb $-128, 135(%rcx) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_shake256_128_33$2: leaq 224(%rsp), %rsp movq 8(%rsp), %rdx movb (%rcx), %sil movb %sil, (%rdx) movb 1(%rcx), %sil movb %sil, 1(%rdx) movb 2(%rcx), %sil movb %sil, 2(%rdx) movb 3(%rcx), %sil movb %sil, 3(%rdx) movb 4(%rcx), %sil movb %sil, 4(%rdx) movb 5(%rcx), %sil movb %sil, 5(%rdx) movb 6(%rcx), %sil movb %sil, 6(%rdx) movb 7(%rcx), %sil movb %sil, 7(%rdx) movb 8(%rcx), %sil movb %sil, 8(%rdx) movb 9(%rcx), %sil movb %sil, 9(%rdx) movb 10(%rcx), %sil movb %sil, 10(%rdx) movb 11(%rcx), %sil movb %sil, 11(%rdx) movb 12(%rcx), %sil movb %sil, 12(%rdx) movb 13(%rcx), %sil movb %sil, 13(%rdx) movb 14(%rcx), %sil movb %sil, 14(%rdx) movb 15(%rcx), %sil movb %sil, 15(%rdx) movb 16(%rcx), %sil movb %sil, 16(%rdx) movb 17(%rcx), %sil movb %sil, 17(%rdx) movb 18(%rcx), %sil movb %sil, 18(%rdx) movb 19(%rcx), %sil movb %sil, 19(%rdx) movb 20(%rcx), %sil movb %sil, 20(%rdx) movb 21(%rcx), %sil movb %sil, 21(%rdx) movb 22(%rcx), %sil movb %sil, 22(%rdx) movb 23(%rcx), %sil movb %sil, 23(%rdx) movb 24(%rcx), %sil movb %sil, 24(%rdx) movb 25(%rcx), %sil movb %sil, 25(%rdx) movb 26(%rcx), %sil movb %sil, 26(%rdx) movb 27(%rcx), %sil movb %sil, 27(%rdx) movb 28(%rcx), %sil movb %sil, 28(%rdx) movb 29(%rcx), %sil movb %sil, 29(%rdx) movb 30(%rcx), %sil movb %sil, 30(%rdx) movb 31(%rcx), %sil movb %sil, 31(%rdx) movb 32(%rcx), %sil movb %sil, 32(%rdx) movb 33(%rcx), %sil movb %sil, 33(%rdx) movb 34(%rcx), %sil movb %sil, 34(%rdx) movb 35(%rcx), %sil movb %sil, 35(%rdx) movb 36(%rcx), %sil movb %sil, 36(%rdx) movb 37(%rcx), %sil movb %sil, 37(%rdx) movb 38(%rcx), %sil movb %sil, 38(%rdx) movb 39(%rcx), %sil movb %sil, 39(%rdx) movb 40(%rcx), %sil movb %sil, 40(%rdx) movb 41(%rcx), %sil movb %sil, 41(%rdx) movb 42(%rcx), %sil movb %sil, 42(%rdx) movb 43(%rcx), %sil movb %sil, 43(%rdx) movb 44(%rcx), %sil movb %sil, 44(%rdx) movb 45(%rcx), %sil movb %sil, 45(%rdx) movb 46(%rcx), %sil movb %sil, 46(%rdx) movb 47(%rcx), %sil movb %sil, 47(%rdx) movb 48(%rcx), %sil movb %sil, 48(%rdx) movb 49(%rcx), %sil movb %sil, 49(%rdx) movb 50(%rcx), %sil movb %sil, 50(%rdx) movb 51(%rcx), %sil movb %sil, 51(%rdx) movb 52(%rcx), %sil movb %sil, 52(%rdx) movb 53(%rcx), %sil movb %sil, 53(%rdx) movb 54(%rcx), %sil movb %sil, 54(%rdx) movb 55(%rcx), %sil movb %sil, 55(%rdx) movb 56(%rcx), %sil movb %sil, 56(%rdx) movb 57(%rcx), %sil movb %sil, 57(%rdx) movb 58(%rcx), %sil movb %sil, 58(%rdx) movb 59(%rcx), %sil movb %sil, 59(%rdx) movb 60(%rcx), %sil movb %sil, 60(%rdx) movb 61(%rcx), %sil movb %sil, 61(%rdx) movb 62(%rcx), %sil movb %sil, 62(%rdx) movb 63(%rcx), %sil movb %sil, 63(%rdx) movb 64(%rcx), %sil movb %sil, 64(%rdx) movb 65(%rcx), %sil movb %sil, 65(%rdx) movb 66(%rcx), %sil movb %sil, 66(%rdx) movb 67(%rcx), %sil movb %sil, 67(%rdx) movb 68(%rcx), %sil movb %sil, 68(%rdx) movb 69(%rcx), %sil movb %sil, 69(%rdx) movb 70(%rcx), %sil movb %sil, 70(%rdx) movb 71(%rcx), %sil movb %sil, 71(%rdx) movb 72(%rcx), %sil movb %sil, 72(%rdx) movb 73(%rcx), %sil movb %sil, 73(%rdx) movb 74(%rcx), %sil movb %sil, 74(%rdx) movb 75(%rcx), %sil movb %sil, 75(%rdx) movb 76(%rcx), %sil movb %sil, 76(%rdx) movb 77(%rcx), %sil movb %sil, 77(%rdx) movb 78(%rcx), %sil movb %sil, 78(%rdx) movb 79(%rcx), %sil movb %sil, 79(%rdx) movb 80(%rcx), %sil movb %sil, 80(%rdx) movb 81(%rcx), %sil movb %sil, 81(%rdx) movb 82(%rcx), %sil movb %sil, 82(%rdx) movb 83(%rcx), %sil movb %sil, 83(%rdx) movb 84(%rcx), %sil movb %sil, 84(%rdx) movb 85(%rcx), %sil movb %sil, 85(%rdx) movb 86(%rcx), %sil movb %sil, 86(%rdx) movb 87(%rcx), %sil movb %sil, 87(%rdx) movb 88(%rcx), %sil movb %sil, 88(%rdx) movb 89(%rcx), %sil movb %sil, 89(%rdx) movb 90(%rcx), %sil movb %sil, 90(%rdx) movb 91(%rcx), %sil movb %sil, 91(%rdx) movb 92(%rcx), %sil movb %sil, 92(%rdx) movb 93(%rcx), %sil movb %sil, 93(%rdx) movb 94(%rcx), %sil movb %sil, 94(%rdx) movb 95(%rcx), %sil movb %sil, 95(%rdx) movb 96(%rcx), %sil movb %sil, 96(%rdx) movb 97(%rcx), %sil movb %sil, 97(%rdx) movb 98(%rcx), %sil movb %sil, 98(%rdx) movb 99(%rcx), %sil movb %sil, 99(%rdx) movb 100(%rcx), %sil movb %sil, 100(%rdx) movb 101(%rcx), %sil movb %sil, 101(%rdx) movb 102(%rcx), %sil movb %sil, 102(%rdx) movb 103(%rcx), %sil movb %sil, 103(%rdx) movb 104(%rcx), %sil movb %sil, 104(%rdx) movb 105(%rcx), %sil movb %sil, 105(%rdx) movb 106(%rcx), %sil movb %sil, 106(%rdx) movb 107(%rcx), %sil movb %sil, 107(%rdx) movb 108(%rcx), %sil movb %sil, 108(%rdx) movb 109(%rcx), %sil movb %sil, 109(%rdx) movb 110(%rcx), %sil movb %sil, 110(%rdx) movb 111(%rcx), %sil movb %sil, 111(%rdx) movb 112(%rcx), %sil movb %sil, 112(%rdx) movb 113(%rcx), %sil movb %sil, 113(%rdx) movb 114(%rcx), %sil movb %sil, 114(%rdx) movb 115(%rcx), %sil movb %sil, 115(%rdx) movb 116(%rcx), %sil movb %sil, 116(%rdx) movb 117(%rcx), %sil movb %sil, 117(%rdx) movb 118(%rcx), %sil movb %sil, 118(%rdx) movb 119(%rcx), %sil movb %sil, 119(%rdx) movb 120(%rcx), %sil movb %sil, 120(%rdx) movb 121(%rcx), %sil movb %sil, 121(%rdx) movb 122(%rcx), %sil movb %sil, 122(%rdx) movb 123(%rcx), %sil movb %sil, 123(%rdx) movb 124(%rcx), %sil movb %sil, 124(%rdx) movb 125(%rcx), %sil movb %sil, 125(%rdx) movb 126(%rcx), %sil movb %sil, 126(%rdx) movb 127(%rcx), %cl movb %cl, 127(%rdx) ret L_keccakf1600_ref1$1: leaq glob_data + 0(%rip), %rdx movq %rdx, 8(%rsp) leaq 32(%rsp), %rdx movq $0, %r11 jmp L_keccakf1600_ref1$2 L_keccakf1600_ref1$3: movq %r11, 16(%rsp) movq 8(%rsp), %rsi movq (%rsi,%r11,8), %rsi movq %rsi, 24(%rsp) movq (%rcx), %r10 movq 8(%rcx), %r9 movq 16(%rcx), %rbx movq 24(%rcx), %rbp movq 32(%rcx), %r12 xorq 40(%rcx), %r10 xorq 48(%rcx), %r9 xorq 56(%rcx), %rbx xorq 64(%rcx), %rbp xorq 72(%rcx), %r12 xorq 80(%rcx), %r10 xorq 88(%rcx), %r9 xorq 96(%rcx), %rbx xorq 104(%rcx), %rbp xorq 112(%rcx), %r12 xorq 120(%rcx), %r10 xorq 128(%rcx), %r9 xorq 136(%rcx), %rbx xorq 144(%rcx), %rbp xorq 152(%rcx), %r12 xorq 160(%rcx), %r10 xorq 168(%rcx), %r9 xorq 176(%rcx), %rbx xorq 184(%rcx), %rbp xorq 192(%rcx), %r12 movq %r9, %rsi rolq $1, %rsi xorq %r12, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r10, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r9, %r8 movq %r12, %r9 rolq $1, %r9 xorq %rbx, %r9 rolq $1, %r10 xorq %rbp, %r10 movq (%rcx), %rbx xorq %rsi, %rbx movq 48(%rcx), %rbp xorq %rdi, %rbp rolq $44, %rbp movq 96(%rcx), %r12 xorq %r8, %r12 rolq $43, %r12 movq 144(%rcx), %r13 xorq %r9, %r13 rolq $21, %r13 movq 192(%rcx), %r14 xorq %r10, %r14 rolq $14, %r14 movq %rbp, %r15 notq %r15 andq %r12, %r15 xorq %rbx, %r15 xorq 24(%rsp), %r15 movq %r15, (%rdx) movq %r12, %r15 notq %r15 andq %r13, %r15 xorq %rbp, %r15 movq %r15, 8(%rdx) movq %r13, %r15 notq %r15 andq %r14, %r15 xorq %r12, %r15 movq %r15, 16(%rdx) movq %r14, %r12 notq %r12 andq %rbx, %r12 xorq %r13, %r12 movq %r12, 24(%rdx) notq %rbx andq %rbp, %rbx xorq %r14, %rbx movq %rbx, 32(%rdx) movq 24(%rcx), %rbx xorq %r9, %rbx rolq $28, %rbx movq 72(%rcx), %rbp xorq %r10, %rbp rolq $20, %rbp movq 80(%rcx), %r12 xorq %rsi, %r12 rolq $3, %r12 movq 128(%rcx), %r13 xorq %rdi, %r13 rolq $45, %r13 movq 176(%rcx), %r14 xorq %r8, %r14 rolq $61, %r14 movq %rbp, %r15 notq %r15 andq %r12, %r15 xorq %rbx, %r15 movq %r15, 40(%rdx) movq %r12, %r15 notq %r15 andq %r13, %r15 xorq %rbp, %r15 movq %r15, 48(%rdx) movq %r13, %r15 notq %r15 andq %r14, %r15 xorq %r12, %r15 movq %r15, 56(%rdx) movq %r14, %r12 notq %r12 andq %rbx, %r12 xorq %r13, %r12 movq %r12, 64(%rdx) notq %rbx andq %rbp, %rbx xorq %r14, %rbx movq %rbx, 72(%rdx) movq 8(%rcx), %rbx xorq %rdi, %rbx rolq $1, %rbx movq 56(%rcx), %rbp xorq %r8, %rbp rolq $6, %rbp movq 104(%rcx), %r12 xorq %r9, %r12 rolq $25, %r12 movq 152(%rcx), %r13 xorq %r10, %r13 rolq $8, %r13 movq 160(%rcx), %r14 xorq %rsi, %r14 rolq $18, %r14 movq %rbp, %r15 notq %r15 andq %r12, %r15 xorq %rbx, %r15 movq %r15, 80(%rdx) movq %r12, %r15 notq %r15 andq %r13, %r15 xorq %rbp, %r15 movq %r15, 88(%rdx) movq %r13, %r15 notq %r15 andq %r14, %r15 xorq %r12, %r15 movq %r15, 96(%rdx) movq %r14, %r12 notq %r12 andq %rbx, %r12 xorq %r13, %r12 movq %r12, 104(%rdx) notq %rbx andq %rbp, %rbx xorq %r14, %rbx movq %rbx, 112(%rdx) movq 32(%rcx), %rbx xorq %r10, %rbx rolq $27, %rbx movq 40(%rcx), %rbp xorq %rsi, %rbp rolq $36, %rbp movq 88(%rcx), %r12 xorq %rdi, %r12 rolq $10, %r12 movq 136(%rcx), %r13 xorq %r8, %r13 rolq $15, %r13 movq 184(%rcx), %r14 xorq %r9, %r14 rolq $56, %r14 movq %rbp, %r15 notq %r15 andq %r12, %r15 xorq %rbx, %r15 movq %r15, 120(%rdx) movq %r12, %r15 notq %r15 andq %r13, %r15 xorq %rbp, %r15 movq %r15, 128(%rdx) movq %r13, %r15 notq %r15 andq %r14, %r15 xorq %r12, %r15 movq %r15, 136(%rdx) movq %r14, %r12 notq %r12 andq %rbx, %r12 xorq %r13, %r12 movq %r12, 144(%rdx) notq %rbx andq %rbp, %rbx xorq %r14, %rbx movq %rbx, 152(%rdx) movq 16(%rcx), %rbx xorq %r8, %rbx rolq $62, %rbx movq 64(%rcx), %r8 xorq %r9, %r8 rolq $55, %r8 movq 112(%rcx), %r9 xorq %r10, %r9 rolq $39, %r9 movq 120(%rcx), %r10 xorq %rsi, %r10 rolq $41, %r10 movq 168(%rcx), %rsi xorq %rdi, %rsi rolq $2, %rsi movq %r8, %rdi notq %rdi andq %r9, %rdi xorq %rbx, %rdi movq %rdi, 160(%rdx) movq %r9, %rdi notq %rdi andq %r10, %rdi xorq %r8, %rdi movq %rdi, 168(%rdx) movq %r10, %rdi notq %rdi andq %rsi, %rdi xorq %r9, %rdi movq %rdi, 176(%rdx) movq %rsi, %rdi notq %rdi andq %rbx, %rdi xorq %r10, %rdi movq %rdi, 184(%rdx) notq %rbx andq %r8, %rbx xorq %rsi, %rbx movq %rbx, 192(%rdx) movq 8(%rsp), %rsi movq 8(%rsi,%r11,8), %rsi movq %rsi, 24(%rsp) movq (%rdx), %r10 movq 8(%rdx), %r9 movq 16(%rdx), %r11 movq 24(%rdx), %rbx movq 32(%rdx), %rbp xorq 40(%rdx), %r10 xorq 48(%rdx), %r9 xorq 56(%rdx), %r11 xorq 64(%rdx), %rbx xorq 72(%rdx), %rbp xorq 80(%rdx), %r10 xorq 88(%rdx), %r9 xorq 96(%rdx), %r11 xorq 104(%rdx), %rbx xorq 112(%rdx), %rbp xorq 120(%rdx), %r10 xorq 128(%rdx), %r9 xorq 136(%rdx), %r11 xorq 144(%rdx), %rbx xorq 152(%rdx), %rbp xorq 160(%rdx), %r10 xorq 168(%rdx), %r9 xorq 176(%rdx), %r11 xorq 184(%rdx), %rbx xorq 192(%rdx), %rbp movq %r9, %rsi rolq $1, %rsi xorq %rbp, %rsi movq %r11, %rdi rolq $1, %rdi xorq %r10, %rdi movq %rbx, %r8 rolq $1, %r8 xorq %r9, %r8 movq %rbp, %r9 rolq $1, %r9 xorq %r11, %r9 rolq $1, %r10 xorq %rbx, %r10 movq (%rdx), %r11 xorq %rsi, %r11 movq 48(%rdx), %rbx xorq %rdi, %rbx rolq $44, %rbx movq 96(%rdx), %rbp xorq %r8, %rbp rolq $43, %rbp movq 144(%rdx), %r12 xorq %r9, %r12 rolq $21, %r12 movq 192(%rdx), %r13 xorq %r10, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq 24(%rsp), %r14 movq %r14, (%rcx) movq %rbp, %r14 notq %r14 andq %r12, %r14 xorq %rbx, %r14 movq %r14, 8(%rcx) movq %r12, %r14 notq %r14 andq %r13, %r14 xorq %rbp, %r14 movq %r14, 16(%rcx) movq %r13, %rbp notq %rbp andq %r11, %rbp xorq %r12, %rbp movq %rbp, 24(%rcx) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 32(%rcx) movq 24(%rdx), %r11 xorq %r9, %r11 rolq $28, %r11 movq 72(%rdx), %rbx xorq %r10, %rbx rolq $20, %rbx movq 80(%rdx), %rbp xorq %rsi, %rbp rolq $3, %rbp movq 128(%rdx), %r12 xorq %rdi, %r12 rolq $45, %r12 movq 176(%rdx), %r13 xorq %r8, %r13 rolq $61, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 movq %r14, 40(%rcx) movq %rbp, %r14 notq %r14 andq %r12, %r14 xorq %rbx, %r14 movq %r14, 48(%rcx) movq %r12, %r14 notq %r14 andq %r13, %r14 xorq %rbp, %r14 movq %r14, 56(%rcx) movq %r13, %rbp notq %rbp andq %r11, %rbp xorq %r12, %rbp movq %rbp, 64(%rcx) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 72(%rcx) movq 8(%rdx), %r11 xorq %rdi, %r11 rolq $1, %r11 movq 56(%rdx), %rbx xorq %r8, %rbx rolq $6, %rbx movq 104(%rdx), %rbp xorq %r9, %rbp rolq $25, %rbp movq 152(%rdx), %r12 xorq %r10, %r12 rolq $8, %r12 movq 160(%rdx), %r13 xorq %rsi, %r13 rolq $18, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 movq %r14, 80(%rcx) movq %rbp, %r14 notq %r14 andq %r12, %r14 xorq %rbx, %r14 movq %r14, 88(%rcx) movq %r12, %r14 notq %r14 andq %r13, %r14 xorq %rbp, %r14 movq %r14, 96(%rcx) movq %r13, %rbp notq %rbp andq %r11, %rbp xorq %r12, %rbp movq %rbp, 104(%rcx) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 112(%rcx) movq 32(%rdx), %r11 xorq %r10, %r11 rolq $27, %r11 movq 40(%rdx), %rbx xorq %rsi, %rbx rolq $36, %rbx movq 88(%rdx), %rbp xorq %rdi, %rbp rolq $10, %rbp movq 136(%rdx), %r12 xorq %r8, %r12 rolq $15, %r12 movq 184(%rdx), %r13 xorq %r9, %r13 rolq $56, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 movq %r14, 120(%rcx) movq %rbp, %r14 notq %r14 andq %r12, %r14 xorq %rbx, %r14 movq %r14, 128(%rcx) movq %r12, %r14 notq %r14 andq %r13, %r14 xorq %rbp, %r14 movq %r14, 136(%rcx) movq %r13, %rbp notq %rbp andq %r11, %rbp xorq %r12, %rbp movq %rbp, 144(%rcx) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 152(%rcx) movq 16(%rdx), %r11 xorq %r8, %r11 rolq $62, %r11 movq 64(%rdx), %r8 xorq %r9, %r8 rolq $55, %r8 movq 112(%rdx), %r9 xorq %r10, %r9 rolq $39, %r9 movq 120(%rdx), %r10 xorq %rsi, %r10 rolq $41, %r10 movq 168(%rdx), %rsi xorq %rdi, %rsi rolq $2, %rsi movq %r8, %rdi notq %rdi andq %r9, %rdi xorq %r11, %rdi movq %rdi, 160(%rcx) movq %r9, %rdi notq %rdi andq %r10, %rdi xorq %r8, %rdi movq %rdi, 168(%rcx) movq %r10, %rdi notq %rdi andq %rsi, %rdi xorq %r9, %rdi movq %rdi, 176(%rcx) movq %rsi, %rdi notq %rdi andq %r11, %rdi xorq %r10, %rdi movq %rdi, 184(%rcx) notq %r11 andq %r8, %r11 xorq %rsi, %r11 movq %r11, 192(%rcx) movq 16(%rsp), %r11 addq $2, %r11 L_keccakf1600_ref1$2: cmpq $23, %r11 jb L_keccakf1600_ref1$3 ret .data .p2align 5 _glob_data: glob_data: .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -91 .byte 6 .byte 15 .byte 7 .byte -76 .byte 5 .byte 67 .byte 9 .byte 34 .byte 9 .byte 29 .byte 9 .byte 52 .byte 1 .byte 108 .byte 0 .byte 35 .byte 11 .byte 102 .byte 3 .byte 86 .byte 3 .byte -26 .byte 5 .byte -25 .byte 9 .byte -2 .byte 4 .byte -6 .byte 5 .byte -95 .byte 4 .byte 123 .byte 6 .byte -93 .byte 4 .byte 37 .byte 12 .byte 106 .byte 3 .byte 55 .byte 5 .byte 63 .byte 8 .byte -120 .byte 0 .byte -65 .byte 4 .byte -127 .byte 11 .byte -71 .byte 5 .byte 5 .byte 5 .byte -41 .byte 7 .byte -97 .byte 10 .byte -90 .byte 10 .byte -72 .byte 8 .byte -48 .byte 9 .byte 75 .byte 0 .byte -100 .byte 0 .byte -72 .byte 11 .byte 95 .byte 11 .byte -92 .byte 11 .byte 104 .byte 3 .byte 125 .byte 10 .byte 54 .byte 6 .byte -94 .byte 8 .byte 90 .byte 2 .byte 54 .byte 7 .byte 9 .byte 3 .byte -109 .byte 0 .byte 122 .byte 8 .byte -9 .byte 9 .byte -10 .byte 0 .byte -116 .byte 6 .byte -37 .byte 6 .byte -52 .byte 1 .byte 35 .byte 1 .byte -21 .byte 0 .byte 80 .byte 12 .byte -74 .byte 10 .byte 91 .byte 11 .byte -104 .byte 12 .byte -13 .byte 6 .byte -102 .byte 9 .byte -29 .byte 4 .byte -74 .byte 9 .byte -42 .byte 10 .byte 83 .byte 11 .byte 79 .byte 4 .byte -5 .byte 4 .byte 92 .byte 10 .byte 41 .byte 4 .byte 65 .byte 11 .byte -43 .byte 2 .byte -28 .byte 5 .byte 64 .byte 9 .byte -114 .byte 1 .byte -73 .byte 3 .byte -9 .byte 0 .byte -115 .byte 5 .byte -106 .byte 12 .byte -61 .byte 9 .byte 15 .byte 1 .byte 90 .byte 0 .byte 85 .byte 3 .byte 68 .byte 7 .byte -125 .byte 12 .byte -118 .byte 4 .byte 82 .byte 6 .byte -102 .byte 2 .byte 64 .byte 1 .byte 8 .byte 0 .byte -3 .byte 10 .byte 8 .byte 6 .byte 26 .byte 1 .byte 46 .byte 7 .byte 13 .byte 5 .byte 10 .byte 9 .byte 40 .byte 2 .byte 117 .byte 10 .byte 58 .byte 8 .byte 35 .byte 6 .byte -51 .byte 0 .byte 102 .byte 11 .byte 6 .byte 6 .byte -95 .byte 10 .byte 37 .byte 10 .byte 8 .byte 9 .byte -87 .byte 2 .byte -126 .byte 0 .byte 66 .byte 6 .byte 79 .byte 7 .byte 61 .byte 3 .byte -126 .byte 11 .byte -7 .byte 11 .byte 45 .byte 5 .byte -60 .byte 10 .byte 69 .byte 7 .byte -62 .byte 5 .byte -78 .byte 4 .byte 63 .byte 9 .byte 75 .byte 12 .byte -40 .byte 6 .byte -109 .byte 10 .byte -85 .byte 0 .byte 55 .byte 12 .byte -30 .byte 11 .byte 115 .byte 7 .byte 44 .byte 7 .byte -19 .byte 5 .byte 103 .byte 1 .byte -10 .byte 2 .byte -95 .byte 5 .byte -19 .byte 8 .byte 11 .byte 10 .byte -102 .byte 11 .byte 20 .byte 7 .byte -43 .byte 5 .byte -114 .byte 5 .byte 31 .byte 1 .byte -54 .byte 0 .byte 86 .byte 12 .byte 110 .byte 2 .byte 41 .byte 6 .byte -74 .byte 0 .byte -62 .byte 3 .byte 79 .byte 8 .byte 63 .byte 7 .byte -68 .byte 5 .byte 61 .byte 2 .byte -44 .byte 7 .byte 8 .byte 1 .byte 127 .byte 1 .byte -60 .byte 9 .byte -78 .byte 5 .byte -65 .byte 6 .byte 127 .byte 12 .byte 88 .byte 10 .byte -7 .byte 3 .byte -36 .byte 2 .byte 96 .byte 2 .byte -5 .byte 6 .byte -101 .byte 1 .byte 52 .byte 12 .byte -34 .byte 6 .byte -57 .byte 4 .byte -116 .byte 2 .byte -39 .byte 10 .byte -9 .byte 3 .byte -12 .byte 7 .byte -45 .byte 5 .byte -25 .byte 11 .byte -7 .byte 6 .byte 4 .byte 2 .byte -7 .byte 12 .byte -63 .byte 11 .byte 103 .byte 10 .byte -81 .byte 6 .byte 119 .byte 8 .byte 126 .byte 0 .byte -67 .byte 5 .byte -84 .byte 9 .byte -89 .byte 12 .byte -14 .byte 11 .byte 62 .byte 3 .byte 107 .byte 0 .byte 116 .byte 7 .byte 10 .byte 12 .byte 74 .byte 9 .byte 115 .byte 11 .byte -63 .byte 3 .byte 29 .byte 7 .byte 44 .byte 10 .byte -64 .byte 1 .byte -40 .byte 8 .byte -91 .byte 2 .byte 6 .byte 8 .byte -78 .byte 8 .byte -82 .byte 1 .byte 43 .byte 2 .byte 75 .byte 3 .byte 30 .byte 8 .byte 103 .byte 3 .byte 14 .byte 6 .byte 105 .byte 0 .byte -90 .byte 1 .byte 75 .byte 2 .byte -79 .byte 0 .byte 22 .byte 12 .byte -34 .byte 11 .byte 53 .byte 11 .byte 38 .byte 6 .byte 117 .byte 6 .byte 11 .byte 12 .byte 10 .byte 3 .byte -121 .byte 4 .byte 110 .byte 12 .byte -8 .byte 9 .byte -53 .byte 5 .byte -89 .byte 10 .byte 95 .byte 4 .byte -53 .byte 6 .byte -124 .byte 2 .byte -103 .byte 9 .byte 93 .byte 1 .byte -94 .byte 1 .byte 73 .byte 1 .byte 101 .byte 12 .byte -74 .byte 12 .byte 49 .byte 3 .byte 73 .byte 4 .byte 91 .byte 2 .byte 98 .byte 2 .byte 42 .byte 5 .byte -4 .byte 7 .byte 72 .byte 7 .byte -128 .byte 1 .byte 66 .byte 8 .byte 121 .byte 12 .byte -62 .byte 4 .byte -54 .byte 7 .byte -105 .byte 9 .byte -36 .byte 0 .byte 94 .byte 8 .byte -122 .byte 6 .byte 96 .byte 8 .byte 7 .byte 7 .byte 3 .byte 8 .byte 26 .byte 3 .byte 27 .byte 7 .byte -85 .byte 9 .byte -101 .byte 9 .byte -34 .byte 1 .byte -107 .byte 12 .byte -51 .byte 11 .byte -28 .byte 3 .byte -33 .byte 3 .byte -66 .byte 3 .byte 77 .byte 7 .byte -14 .byte 5 .byte 92 .byte 6
usenix-security-verdict/verdict
31,350
deps/libcrux/sys/libjade/jazz/sha3_384_ref.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_384_amd64_ref .globl jade_hash_sha3_384_amd64_ref _jade_hash_sha3_384_amd64_ref: jade_hash_sha3_384_amd64_ref: movq %rsp, %rax leaq -48(%rsp), %rsp andq $-8, %rsp movq %rax, 40(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq %r14, 32(%rsp) movq $48, %rcx movb $6, %r8b movq $104, %rax leaq -448(%rsp), %rsp call L_keccak1600_ref$1 Ljade_hash_sha3_384_amd64_ref$1: leaq 448(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %r14 movq 40(%rsp), %rsp ret L_keccak1600_ref$1: movq %rdi, 8(%rsp) movq %rcx, 16(%rsp) movb %r8b, 448(%rsp) xorq %rcx, %rcx movq %rcx, 48(%rsp) movq %rcx, 56(%rsp) movq %rcx, 64(%rsp) movq %rcx, 72(%rsp) movq %rcx, 80(%rsp) movq %rcx, 88(%rsp) movq %rcx, 96(%rsp) movq %rcx, 104(%rsp) movq %rcx, 112(%rsp) movq %rcx, 120(%rsp) movq %rcx, 128(%rsp) movq %rcx, 136(%rsp) movq %rcx, 144(%rsp) movq %rcx, 152(%rsp) movq %rcx, 160(%rsp) movq %rcx, 168(%rsp) movq %rcx, 176(%rsp) movq %rcx, 184(%rsp) movq %rcx, 192(%rsp) movq %rcx, 200(%rsp) movq %rcx, 208(%rsp) movq %rcx, 216(%rsp) movq %rcx, 224(%rsp) movq %rcx, 232(%rsp) movq %rcx, 240(%rsp) jmp L_keccak1600_ref$16 L_keccak1600_ref$17: movq %rax, %rcx shrq $3, %rcx movq $0, %rdi jmp L_keccak1600_ref$19 L_keccak1600_ref$20: movq (%rsi,%rdi,8), %r8 xorq %r8, 48(%rsp,%rdi,8) incq %rdi L_keccak1600_ref$19: cmpq %rcx, %rdi jb L_keccak1600_ref$20 addq %rax, %rsi subq %rax, %rdx movq %rsi, 24(%rsp) movq %rdx, 32(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$18: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$18 movq 24(%rsp), %rsi movq 32(%rsp), %rdx movq 40(%rsp), %rax L_keccak1600_ref$16: cmpq %rax, %rdx jnb L_keccak1600_ref$17 movb 448(%rsp), %cl movq %rdx, %rdi shrq $3, %rdi movq $0, %r8 jmp L_keccak1600_ref$14 L_keccak1600_ref$15: movq (%rsi,%r8,8), %r9 xorq %r9, 48(%rsp,%r8,8) incq %r8 L_keccak1600_ref$14: cmpq %rdi, %r8 jb L_keccak1600_ref$15 shlq $3, %r8 jmp L_keccak1600_ref$12 L_keccak1600_ref$13: movb (%rsi,%r8), %dil xorb %dil, 48(%rsp,%r8) incq %r8 L_keccak1600_ref$12: cmpq %rdx, %r8 jb L_keccak1600_ref$13 xorb %cl, 48(%rsp,%r8) movq %rax, %rcx addq $-1, %rcx xorb $-128, 48(%rsp,%rcx) movq 16(%rsp), %rdx jmp L_keccak1600_ref$7 L_keccak1600_ref$8: movq %rdx, 16(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$11: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$11 movq 8(%rsp), %rcx movq 16(%rsp), %rdx movq 40(%rsp), %rax movq %rax, %rsi shrq $3, %rsi movq $0, %rdi jmp L_keccak1600_ref$9 L_keccak1600_ref$10: movq 48(%rsp,%rdi,8), %r8 movq %r8, (%rcx,%rdi,8) incq %rdi L_keccak1600_ref$9: cmpq %rsi, %rdi jb L_keccak1600_ref$10 addq %rax, %rcx subq %rax, %rdx movq %rcx, 8(%rsp) L_keccak1600_ref$7: cmpq %rax, %rdx jnbe L_keccak1600_ref$8 movq %rdx, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$6: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$6 movq 8(%rsp), %rax movq 40(%rsp), %rcx movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_ref$4 L_keccak1600_ref$5: movq 48(%rsp,%rsi,8), %rdi movq %rdi, (%rax,%rsi,8) incq %rsi L_keccak1600_ref$4: cmpq %rdx, %rsi jb L_keccak1600_ref$5 shlq $3, %rsi jmp L_keccak1600_ref$2 L_keccak1600_ref$3: movb 48(%rsp,%rsi), %dl movb %dl, (%rax,%rsi) incq %rsi L_keccak1600_ref$2: cmpq %rcx, %rsi jb L_keccak1600_ref$3 ret .data .p2align 5 _glob_data: glob_data: .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128
usenix-security-verdict/verdict
34,209
deps/libcrux/sys/libjade/jazz/sha3_384_avx2.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_384_amd64_avx2 .globl jade_hash_sha3_384_amd64_avx2 _jade_hash_sha3_384_amd64_avx2: jade_hash_sha3_384_amd64_avx2: movq %rsp, %rax leaq -40(%rsp), %rsp andq $-32, %rsp movq %rax, 32(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq $48, %r9 movb $6, %al movq $104, %rcx leaq -224(%rsp), %rsp leaq Ljade_hash_sha3_384_amd64_avx2$1(%rip), %r10 jmp L_keccak1600_avx2$1 Ljade_hash_sha3_384_amd64_avx2$1: leaq 224(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %rsp ret L_keccak1600_avx2$1: vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm5, %ymm5, %ymm5 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm2, %ymm2, %ymm2 leaq glob_data + 1152(%rip), %r8 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) jmp L_keccak1600_avx2$16 L_keccak1600_avx2$17: movq %rcx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$19 L_keccak1600_avx2$20: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$19: cmpq %r11, %rbx jb L_keccak1600_avx2$20 movq (%rsp), %r11 movq %r11, 8(%rsp) movq %r11, 16(%rsp) movq %r11, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 addq %rcx, %rsi subq %rcx, %rdx leaq glob_data + 384(%rip), %r11 movq $0, %rbx leaq glob_data + 192(%rip), %rbp leaq glob_data + 0(%rip), %r12 movq $24, %r13 L_keccak1600_avx2$18: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rbp), %ymm4, %ymm7 vpsrlvq (%r12), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rbp), %ymm0, %ymm7 vpsrlvq 64(%r12), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rbp), %ymm5, %ymm7 vpsrlvq 96(%r12), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rbp), %ymm1, %ymm5 vpsrlvq 128(%r12), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rbp), %ymm2, %ymm0 vpsrlvq 160(%r12), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rbp), %ymm0, %ymm1 vpsrlvq 32(%r12), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%r11,%rbx), %ymm6, %ymm6 addq $32, %rbx decq %r13 jne L_keccak1600_avx2$18 L_keccak1600_avx2$16: cmpq %rcx, %rdx jnb L_keccak1600_avx2$17 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) movq %rdx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$14 L_keccak1600_avx2$15: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$14: cmpq %r11, %rbx jb L_keccak1600_avx2$15 movq (%r8,%rbx,8), %r11 shlq $3, %r11 shlq $3, %rbx jmp L_keccak1600_avx2$12 L_keccak1600_avx2$13: movb (%rsi,%rbx), %bpl movb %bpl, (%rsp,%r11) incq %rbx incq %r11 L_keccak1600_avx2$12: cmpq %rdx, %rbx jb L_keccak1600_avx2$13 movb %al, (%rsp,%r11) movq %rcx, %rax addq $-1, %rax shrq $3, %rax movq (%r8,%rax,8), %rax shlq $3, %rax movq %rcx, %rdx addq $-1, %rdx andq $7, %rdx addq %rdx, %rax xorb $-128, (%rsp,%rax) movq (%rsp), %rax movq %rax, 8(%rsp) movq %rax, 16(%rsp) movq %rax, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 leaq glob_data + 1152(%rip), %rax jmp L_keccak1600_avx2$7 L_keccak1600_avx2$8: leaq glob_data + 384(%rip), %rdx movq $0, %rsi leaq glob_data + 192(%rip), %r8 leaq glob_data + 0(%rip), %r11 movq $24, %rbx L_keccak1600_avx2$11: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r8), %ymm4, %ymm7 vpsrlvq (%r11), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%r8), %ymm0, %ymm7 vpsrlvq 64(%r11), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%r8), %ymm5, %ymm7 vpsrlvq 96(%r11), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%r8), %ymm1, %ymm5 vpsrlvq 128(%r11), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%r8), %ymm2, %ymm0 vpsrlvq 160(%r11), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%r8), %ymm0, %ymm1 vpsrlvq 32(%r11), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rdx,%rsi), %ymm6, %ymm6 addq $32, %rsi decq %rbx jne L_keccak1600_avx2$11 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_avx2$9 L_keccak1600_avx2$10: movq (%rax,%rsi,8), %r8 movq (%rsp,%r8,8), %r8 movq %r8, (%rdi,%rsi,8) incq %rsi L_keccak1600_avx2$9: cmpq %rdx, %rsi jb L_keccak1600_avx2$10 addq %rcx, %rdi subq %rcx, %r9 L_keccak1600_avx2$7: cmpq %rcx, %r9 jnbe L_keccak1600_avx2$8 leaq glob_data + 384(%rip), %rcx movq $0, %rdx leaq glob_data + 192(%rip), %rsi leaq glob_data + 0(%rip), %r8 movq $24, %r11 L_keccak1600_avx2$6: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm4, %ymm7 vpsrlvq (%r8), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rsi), %ymm0, %ymm7 vpsrlvq 64(%r8), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rsi), %ymm5, %ymm7 vpsrlvq 96(%r8), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rsi), %ymm1, %ymm5 vpsrlvq 128(%r8), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rsi), %ymm2, %ymm0 vpsrlvq 160(%r8), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rsi), %ymm0, %ymm1 vpsrlvq 32(%r8), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r11 jne L_keccak1600_avx2$6 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %r9, %rcx shrq $3, %rcx movq $0, %rdx jmp L_keccak1600_avx2$4 L_keccak1600_avx2$5: movq (%rax,%rdx,8), %rsi movq (%rsp,%rsi,8), %rsi movq %rsi, (%rdi,%rdx,8) incq %rdx L_keccak1600_avx2$4: cmpq %rcx, %rdx jb L_keccak1600_avx2$5 movq (%rax,%rdx,8), %rax shlq $3, %rdx shlq $3, %rax jmp L_keccak1600_avx2$2 L_keccak1600_avx2$3: movb (%rsp,%rax), %cl movb %cl, (%rdi,%rdx) incq %rdx incq %rax L_keccak1600_avx2$2: cmpq %r9, %rdx jb L_keccak1600_avx2$3 jmp *%r10 .data .p2align 5 _glob_data: glob_data: .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 46 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 63 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 37 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 58 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 54 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 49 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 50 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 41 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 45 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 55 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 24 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 13 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 16 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 22 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 11 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 12 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 26 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 17 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0
usenix-security-verdict/verdict
85,265
deps/libcrux/sys/libjade/jazz/x25519_ref.s
.att_syntax .text .p2align 5 .globl _jade_scalarmult_curve25519_amd64_ref5_base .globl jade_scalarmult_curve25519_amd64_ref5_base .globl _jade_scalarmult_curve25519_amd64_ref5 .globl jade_scalarmult_curve25519_amd64_ref5 _jade_scalarmult_curve25519_amd64_ref5_base: jade_scalarmult_curve25519_amd64_ref5_base: movq %rsp, %rax leaq -480(%rsp), %rsp andq $-8, %rsp movq %rax, 472(%rsp) movq %rbx, 432(%rsp) movq %rbp, 440(%rsp) movq %r12, 448(%rsp) movq %r13, 456(%rsp) movq %r14, 464(%rsp) movq %rdi, (%rsp) movq (%rsi), %rax movq %rax, 40(%rsp) movq 8(%rsi), %rax movq %rax, 48(%rsp) movq 16(%rsi), %rax movq %rax, 56(%rsp) movq 24(%rsi), %rax movq %rax, 64(%rsp) andb $-8, 40(%rsp) andb $127, 71(%rsp) orb $64, 71(%rsp) movq $9, %rcx movq $0, %r8 movq $0, %r9 movq $0, %r10 movq $0, %r11 xorq %rbx, %rbx movq $1, 72(%rsp) movq $0, %rbp movq %rcx, 112(%rsp) movq %r8, 120(%rsp) movq %r9, 128(%rsp) movq %r10, 136(%rsp) movq %r11, 144(%rsp) movq $1, 152(%rsp) movq %rbx, 80(%rsp) movq %rbx, %rax movq %rbx, 160(%rsp) movq %rbx, 88(%rsp) movq %rbx, %rdx movq %rbx, 168(%rsp) movq %rbx, 96(%rsp) movq %rbx, %rsi movq %rbx, 176(%rsp) movq %rbx, 104(%rsp) movq %rbx, %rdi movq %rbx, 184(%rsp) movq %rcx, 192(%rsp) movq %r8, 200(%rsp) movq %r9, 208(%rsp) movq %r10, 216(%rsp) movq %r11, 224(%rsp) movq $255, %rcx movq $0, 8(%rsp) Ljade_scalarmult_curve25519_amd64_ref5_base$28: addq $-1, %rcx movq %rcx, 16(%rsp) movq %rcx, %r8 shrq $3, %r8 movzbq 40(%rsp,%r8), %r8 andq $7, %rcx shrq %cl, %r8 andq $1, %r8 movq 8(%rsp), %r9 xorq %r8, %r9 xorq %rcx, %rcx subq %r9, %rcx movq %rbp, %r11 movq %rax, %rbx movq %rdx, %r12 movq %rsi, %r9 movq %rdi, %r10 xorq 152(%rsp), %r11 andq %rcx, %r11 xorq 160(%rsp), %rbx andq %rcx, %rbx xorq 168(%rsp), %r12 andq %rcx, %r12 xorq 176(%rsp), %r9 andq %rcx, %r9 xorq 184(%rsp), %r10 andq %rcx, %r10 xorq %r11, %rbp movq 152(%rsp), %r13 xorq %r11, %r13 movq %r13, 152(%rsp) xorq %rbx, %rax movq 160(%rsp), %r11 xorq %rbx, %r11 movq %r11, 160(%rsp) xorq %r12, %rdx movq 168(%rsp), %r11 xorq %r12, %r11 movq %r11, 168(%rsp) xorq %r9, %rsi movq 176(%rsp), %r11 xorq %r9, %r11 movq %r11, 176(%rsp) xorq %r10, %rdi movq 184(%rsp), %r9 xorq %r10, %r9 movq %r9, 184(%rsp) movq 112(%rsp), %r12 movq 120(%rsp), %r9 movq 128(%rsp), %r10 movq 136(%rsp), %r11 movq 144(%rsp), %rbx movq 72(%rsp), %r13 movq %r12, %r14 xorq %r13, %r14 andq %rcx, %r14 xorq %r14, %r13 xorq %r14, %r12 movq %r13, 72(%rsp) movq %r12, 112(%rsp) movq 80(%rsp), %r12 movq %r9, %r13 xorq %r12, %r13 andq %rcx, %r13 xorq %r13, %r12 xorq %r13, %r9 movq %r12, 80(%rsp) movq %r9, 120(%rsp) movq 88(%rsp), %r9 movq %r10, %r12 xorq %r9, %r12 andq %rcx, %r12 xorq %r12, %r9 xorq %r12, %r10 movq %r9, 88(%rsp) movq %r10, 128(%rsp) movq 96(%rsp), %r9 movq %r11, %r10 xorq %r9, %r10 andq %rcx, %r10 xorq %r10, %r9 xorq %r10, %r11 movq %r9, 96(%rsp) movq %r11, 136(%rsp) movq 104(%rsp), %r9 movq %rbx, %r10 xorq %r9, %r10 andq %rcx, %r10 xorq %r10, %r9 xorq %r10, %rbx movq %r9, 104(%rsp) movq %rbx, 144(%rsp) movq %r8, 8(%rsp) movq $4503599627370458, %rcx movq $4503599627370494, %r8 movq 72(%rsp), %r9 movq 80(%rsp), %r10 movq 88(%rsp), %r11 movq 96(%rsp), %rbx movq 104(%rsp), %r12 addq %rcx, %r9 addq %r8, %r10 addq %r8, %r11 addq %r8, %rbx addq %r8, %r12 subq %rbp, %r9 subq %rax, %r10 subq %rdx, %r11 subq %rsi, %rbx subq %rdi, %r12 movq %r9, 232(%rsp) movq %r10, 240(%rsp) movq %r11, 248(%rsp) movq %rbx, 256(%rsp) movq %r12, 264(%rsp) addq 72(%rsp), %rbp addq 80(%rsp), %rax addq 88(%rsp), %rdx addq 96(%rsp), %rsi addq 104(%rsp), %rdi movq %rbp, 272(%rsp) movq %rax, 280(%rsp) movq %rdx, 288(%rsp) movq %rsi, 296(%rsp) movq %rdi, 304(%rsp) movq 112(%rsp), %rax movq 120(%rsp), %rcx movq 128(%rsp), %rdx movq 136(%rsp), %rsi movq 144(%rsp), %rdi movq $4503599627370458, %r8 movq $4503599627370494, %r9 addq %r8, %rax addq %r9, %rcx addq %r9, %rdx addq %r9, %rsi addq %r9, %rdi subq 152(%rsp), %rax subq 160(%rsp), %rcx subq 168(%rsp), %rdx subq 176(%rsp), %rsi subq 184(%rsp), %rdi movq %rax, 312(%rsp) movq %rcx, 320(%rsp) movq %rdx, 328(%rsp) movq %rsi, 336(%rsp) movq %rdi, 344(%rsp) movq 112(%rsp), %rax movq 120(%rsp), %rcx movq 128(%rsp), %rdx movq 136(%rsp), %rsi movq 144(%rsp), %rdi addq 152(%rsp), %rax addq 160(%rsp), %rcx addq 168(%rsp), %rdx addq 176(%rsp), %rsi addq 184(%rsp), %rdi movq %rax, 352(%rsp) movq %rcx, 360(%rsp) movq %rdx, 368(%rsp) movq %rsi, 376(%rsp) movq %rdi, 384(%rsp) movq 296(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 328(%rsp) movq %rax, %r12 movq %rdx, %rdi movq 304(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 320(%rsp) addq %rax, %r12 adcq %rdx, %rdi movq 272(%rsp), %rax mulq 312(%rsp) addq %rax, %r12 adcq %rdx, %rdi movq 272(%rsp), %rax mulq 320(%rsp) movq %rax, %r10 movq %rdx, %rbx movq 272(%rsp), %rax mulq 328(%rsp) movq %rax, %r8 movq %rdx, %r9 movq 272(%rsp), %rax mulq 336(%rsp) movq %rax, %rcx movq %rdx, %r11 movq 272(%rsp), %rax mulq 344(%rsp) movq %rax, %rbp movq %rdx, %rsi movq 280(%rsp), %rax mulq 312(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 280(%rsp), %rax mulq 320(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 280(%rsp), %rax mulq 328(%rsp) addq %rax, %rcx adcq %rdx, %r11 movq 280(%rsp), %rax mulq 336(%rsp) addq %rax, %rbp adcq %rdx, %rsi movq 280(%rsp), %rax imulq $19, %rax, %rax mulq 344(%rsp) addq %rax, %r12 adcq %rdx, %rdi movq 288(%rsp), %rax mulq 312(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 288(%rsp), %rax mulq 320(%rsp) addq %rax, %rcx adcq %rdx, %r11 movq 288(%rsp), %rax mulq 328(%rsp) addq %rax, %rbp adcq %rdx, %rsi movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 336(%rsp) addq %rax, %r12 adcq %rdx, %rdi movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 344(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 296(%rsp), %rax mulq 312(%rsp) addq %rax, %rcx adcq %rdx, %r11 movq 296(%rsp), %rax mulq 320(%rsp) addq %rax, %rbp adcq %rdx, %rsi movq 24(%rsp), %rax mulq 336(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 24(%rsp), %rax mulq 344(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 304(%rsp), %rax mulq 312(%rsp) addq %rax, %rbp adcq %rdx, %rsi movq 32(%rsp), %rax mulq 328(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 32(%rsp), %rax mulq 336(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 32(%rsp), %rax mulq 344(%rsp) addq %rax, %rcx adcq %rdx, %r11 movq $2251799813685247, %rax shldq $13, %r12, %rdi andq %rax, %r12 shldq $13, %r10, %rbx andq %rax, %r10 addq %rdi, %r10 shldq $13, %r8, %r9 andq %rax, %r8 addq %rbx, %r8 shldq $13, %rcx, %r11 andq %rax, %rcx addq %r9, %rcx shldq $13, %rbp, %rsi andq %rax, %rbp addq %r11, %rbp imulq $19, %rsi, %rdx addq %rdx, %r12 movq %r12, %rdx shrq $51, %rdx addq %r10, %rdx movq %rdx, %rsi shrq $51, %rdx andq %rax, %r12 addq %r8, %rdx movq %rdx, %rdi shrq $51, %rdx andq %rax, %rsi addq %rcx, %rdx movq %rdx, %rcx shrq $51, %rdx andq %rax, %rdi addq %rbp, %rdx movq %rdx, %r8 shrq $51, %rdx andq %rax, %rcx imulq $19, %rdx, %rdx addq %rdx, %r12 andq %rax, %r8 movq %r12, 312(%rsp) movq %rsi, 320(%rsp) movq %rdi, 328(%rsp) movq %rcx, 336(%rsp) movq %r8, 344(%rsp) movq 376(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 248(%rsp) movq %rax, %rsi movq %rdx, %rbx movq 384(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 240(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 352(%rsp), %rax mulq 232(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 352(%rsp), %rax mulq 240(%rsp) movq %rax, %r10 movq %rdx, %r11 movq 352(%rsp), %rax mulq 248(%rsp) movq %rax, %rcx movq %rdx, %rdi movq 352(%rsp), %rax mulq 256(%rsp) movq %rax, %rbp movq %rdx, %r8 movq 352(%rsp), %rax mulq 264(%rsp) movq %rax, %r9 movq %rdx, %r12 movq 360(%rsp), %rax mulq 232(%rsp) addq %rax, %r10 adcq %rdx, %r11 movq 360(%rsp), %rax mulq 240(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 360(%rsp), %rax mulq 248(%rsp) addq %rax, %rbp adcq %rdx, %r8 movq 360(%rsp), %rax mulq 256(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 360(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 368(%rsp), %rax mulq 232(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 368(%rsp), %rax mulq 240(%rsp) addq %rax, %rbp adcq %rdx, %r8 movq 368(%rsp), %rax mulq 248(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 368(%rsp), %rax imulq $19, %rax, %rax mulq 256(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 368(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %r10 adcq %rdx, %r11 movq 376(%rsp), %rax mulq 232(%rsp) addq %rax, %rbp adcq %rdx, %r8 movq 376(%rsp), %rax mulq 240(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 32(%rsp), %rax mulq 256(%rsp) addq %rax, %r10 adcq %rdx, %r11 movq 32(%rsp), %rax mulq 264(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 384(%rsp), %rax mulq 232(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 24(%rsp), %rax mulq 248(%rsp) addq %rax, %r10 adcq %rdx, %r11 movq 24(%rsp), %rax mulq 256(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 24(%rsp), %rax mulq 264(%rsp) addq %rax, %rbp adcq %rdx, %r8 movq $2251799813685247, %rax shldq $13, %rsi, %rbx andq %rax, %rsi shldq $13, %r10, %r11 andq %rax, %r10 addq %rbx, %r10 shldq $13, %rcx, %rdi andq %rax, %rcx addq %r11, %rcx shldq $13, %rbp, %r8 andq %rax, %rbp addq %rdi, %rbp shldq $13, %r9, %r12 andq %rax, %r9 addq %r8, %r9 imulq $19, %r12, %rdx addq %rdx, %rsi movq %rsi, %rdx shrq $51, %rdx addq %r10, %rdx movq %rdx, %rdi shrq $51, %rdx andq %rax, %rsi addq %rcx, %rdx movq %rdx, %rcx shrq $51, %rdx andq %rax, %rdi addq %rbp, %rdx movq %rdx, %r8 shrq $51, %rdx andq %rax, %rcx addq %r9, %rdx movq %rdx, %r9 shrq $51, %rdx andq %rax, %r8 imulq $19, %rdx, %rdx addq %rdx, %rsi andq %rax, %r9 movq %rsi, 352(%rsp) movq %rdi, 360(%rsp) movq %rcx, 368(%rsp) movq %r8, 376(%rsp) movq %r9, 384(%rsp) movq 272(%rsp), %rax mulq 272(%rsp) movq %rax, %rcx movq %rdx, %rsi movq 272(%rsp), %rax shlq $1, %rax mulq 280(%rsp) movq %rax, %rbx movq %rdx, %r8 movq 272(%rsp), %rax shlq $1, %rax mulq 288(%rsp) movq %rax, %r12 movq %rdx, %r9 movq 272(%rsp), %rax shlq $1, %rax mulq 296(%rsp) movq %rax, %rdi movq %rdx, %r11 movq 272(%rsp), %rax shlq $1, %rax mulq 304(%rsp) movq %rax, %r10 movq %rdx, %rbp movq 280(%rsp), %rax mulq 280(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 280(%rsp), %rax shlq $1, %rax mulq 288(%rsp) addq %rax, %rdi adcq %rdx, %r11 movq 280(%rsp), %rax shlq $1, %rax mulq 296(%rsp) addq %rax, %r10 adcq %rdx, %rbp movq 280(%rsp), %rax imulq $38, %rax, %rax mulq 304(%rsp) addq %rax, %rcx adcq %rdx, %rsi movq 288(%rsp), %rax mulq 288(%rsp) addq %rax, %r10 adcq %rdx, %rbp movq 288(%rsp), %rax imulq $38, %rax, %rax mulq 296(%rsp) addq %rax, %rcx adcq %rdx, %rsi movq 288(%rsp), %rax imulq $38, %rax, %rax mulq 304(%rsp) addq %rax, %rbx adcq %rdx, %r8 movq 296(%rsp), %rax imulq $19, %rax, %rax mulq 296(%rsp) addq %rax, %rbx adcq %rdx, %r8 movq 296(%rsp), %rax imulq $38, %rax, %rax mulq 304(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 304(%rsp), %rax imulq $19, %rax, %rax mulq 304(%rsp) addq %rax, %rdi adcq %rdx, %r11 movq $2251799813685247, %rax shldq $13, %rcx, %rsi andq %rax, %rcx shldq $13, %rbx, %r8 andq %rax, %rbx addq %rsi, %rbx shldq $13, %r12, %r9 andq %rax, %r12 addq %r8, %r12 shldq $13, %rdi, %r11 andq %rax, %rdi addq %r9, %rdi shldq $13, %r10, %rbp andq %rax, %r10 addq %r11, %r10 imulq $19, %rbp, %rdx addq %rdx, %rcx movq %rcx, %rdx shrq $51, %rdx addq %rbx, %rdx andq %rax, %rcx movq %rdx, %rsi shrq $51, %rdx addq %r12, %rdx andq %rax, %rsi movq %rdx, %r8 shrq $51, %rdx addq %rdi, %rdx andq %rax, %r8 movq %rdx, %rdi shrq $51, %rdx addq %r10, %rdx andq %rax, %rdi movq %rdx, %r9 shrq $51, %rdx imulq $19, %rdx, %rdx addq %rdx, %rcx andq %rax, %r9 movq %rcx, 272(%rsp) movq %rsi, 280(%rsp) movq %r8, 288(%rsp) movq %rdi, 296(%rsp) movq %r9, 304(%rsp) movq 232(%rsp), %rax mulq 232(%rsp) movq %rax, %r8 movq %rdx, %r11 movq 232(%rsp), %rax shlq $1, %rax mulq 240(%rsp) movq %rax, %r9 movq %rdx, %rbp movq 232(%rsp), %rax shlq $1, %rax mulq 248(%rsp) movq %rax, %rdi movq %rdx, %rbx movq 232(%rsp), %rax shlq $1, %rax mulq 256(%rsp) movq %rax, %rcx movq %rdx, %r10 movq 232(%rsp), %rax shlq $1, %rax mulq 264(%rsp) movq %rax, %r12 movq %rdx, %rsi movq 240(%rsp), %rax mulq 240(%rsp) addq %rax, %rdi adcq %rdx, %rbx movq 240(%rsp), %rax shlq $1, %rax mulq 248(%rsp) addq %rax, %rcx adcq %rdx, %r10 movq 240(%rsp), %rax shlq $1, %rax mulq 256(%rsp) addq %rax, %r12 adcq %rdx, %rsi movq 240(%rsp), %rax imulq $38, %rax, %rax mulq 264(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 248(%rsp), %rax mulq 248(%rsp) addq %rax, %r12 adcq %rdx, %rsi movq 248(%rsp), %rax imulq $38, %rax, %rax mulq 256(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 248(%rsp), %rax imulq $38, %rax, %rax mulq 264(%rsp) addq %rax, %r9 adcq %rdx, %rbp movq 256(%rsp), %rax imulq $19, %rax, %rax mulq 256(%rsp) addq %rax, %r9 adcq %rdx, %rbp movq 256(%rsp), %rax imulq $38, %rax, %rax mulq 264(%rsp) addq %rax, %rdi adcq %rdx, %rbx movq 264(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %rcx adcq %rdx, %r10 movq $2251799813685247, %rax shldq $13, %r8, %r11 andq %rax, %r8 shldq $13, %r9, %rbp andq %rax, %r9 addq %r11, %r9 shldq $13, %rdi, %rbx andq %rax, %rdi addq %rbp, %rdi shldq $13, %rcx, %r10 andq %rax, %rcx addq %rbx, %rcx shldq $13, %r12, %rsi andq %rax, %r12 addq %r10, %r12 imulq $19, %rsi, %rdx addq %rdx, %r8 movq %r8, %rdx shrq $51, %rdx addq %r9, %rdx andq %rax, %r8 movq %rdx, %rsi shrq $51, %rdx addq %rdi, %rdx andq %rax, %rsi movq %rdx, %rdi shrq $51, %rdx addq %rcx, %rdx andq %rax, %rdi movq %rdx, %rcx shrq $51, %rdx addq %r12, %rdx andq %rax, %rcx movq %rdx, %r9 shrq $51, %rdx imulq $19, %rdx, %rdx addq %rdx, %r8 andq %rax, %r9 movq %r8, 232(%rsp) movq %rsi, 240(%rsp) movq %rdi, 248(%rsp) movq %rcx, 256(%rsp) movq %r9, 264(%rsp) movq 312(%rsp), %rax movq 320(%rsp), %rcx movq 328(%rsp), %rdx movq 336(%rsp), %rsi movq 344(%rsp), %rdi addq 352(%rsp), %rax addq 360(%rsp), %rcx addq 368(%rsp), %rdx addq 376(%rsp), %rsi addq 384(%rsp), %rdi movq %rax, 392(%rsp) movq %rcx, 400(%rsp) movq %rdx, 408(%rsp) movq %rsi, 416(%rsp) movq %rdi, 424(%rsp) movq 312(%rsp), %rax movq 320(%rsp), %rcx movq 328(%rsp), %rdx movq 336(%rsp), %rsi movq 344(%rsp), %rdi movq $4503599627370458, %r8 movq $4503599627370494, %r9 addq %r8, %rax addq %r9, %rcx addq %r9, %rdx addq %r9, %rsi addq %r9, %rdi subq 352(%rsp), %rax subq 360(%rsp), %rcx subq 368(%rsp), %rdx subq 376(%rsp), %rsi subq 384(%rsp), %rdi movq %rax, 352(%rsp) movq %rcx, 360(%rsp) movq %rdx, 368(%rsp) movq %rsi, 376(%rsp) movq %rdi, 384(%rsp) movq 296(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 248(%rsp) movq %rax, %r9 movq %rdx, %r12 movq 304(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 240(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 272(%rsp), %rax mulq 232(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 272(%rsp), %rax mulq 240(%rsp) movq %rax, %rcx movq %rdx, %rbx movq 272(%rsp), %rax mulq 248(%rsp) movq %rax, %r8 movq %rdx, %rdi movq 272(%rsp), %rax mulq 256(%rsp) movq %rax, %r11 movq %rdx, %rsi movq 272(%rsp), %rax mulq 264(%rsp) movq %rax, %rbp movq %rdx, %r10 movq 280(%rsp), %rax mulq 232(%rsp) addq %rax, %rcx adcq %rdx, %rbx movq 280(%rsp), %rax mulq 240(%rsp) addq %rax, %r8 adcq %rdx, %rdi movq 280(%rsp), %rax mulq 248(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 280(%rsp), %rax mulq 256(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 280(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 288(%rsp), %rax mulq 232(%rsp) addq %rax, %r8 adcq %rdx, %rdi movq 288(%rsp), %rax mulq 240(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 288(%rsp), %rax mulq 248(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 256(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %rcx adcq %rdx, %rbx movq 296(%rsp), %rax mulq 232(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 296(%rsp), %rax mulq 240(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 24(%rsp), %rax mulq 256(%rsp) addq %rax, %rcx adcq %rdx, %rbx movq 24(%rsp), %rax mulq 264(%rsp) addq %rax, %r8 adcq %rdx, %rdi movq 304(%rsp), %rax mulq 232(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 32(%rsp), %rax mulq 248(%rsp) addq %rax, %rcx adcq %rdx, %rbx movq 32(%rsp), %rax mulq 256(%rsp) addq %rax, %r8 adcq %rdx, %rdi movq 32(%rsp), %rax mulq 264(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq $2251799813685247, %rax shldq $13, %r9, %r12 andq %rax, %r9 shldq $13, %rcx, %rbx andq %rax, %rcx addq %r12, %rcx shldq $13, %r8, %rdi andq %rax, %r8 addq %rbx, %r8 shldq $13, %r11, %rsi andq %rax, %r11 addq %rdi, %r11 shldq $13, %rbp, %r10 andq %rax, %rbp addq %rsi, %rbp imulq $19, %r10, %rdx addq %rdx, %r9 movq %r9, %rdx shrq $51, %rdx addq %rcx, %rdx movq %rdx, %rcx shrq $51, %rdx andq %rax, %r9 addq %r8, %rdx movq %rdx, %rsi shrq $51, %rdx andq %rax, %rcx addq %r11, %rdx movq %rdx, %rdi shrq $51, %rdx andq %rax, %rsi addq %rbp, %rdx movq %rdx, %r8 shrq $51, %rdx andq %rax, %rdi imulq $19, %rdx, %rdx addq %rdx, %r9 andq %rax, %r8 movq %r9, 72(%rsp) movq %rcx, 80(%rsp) movq %rsi, 88(%rsp) movq %rdi, 96(%rsp) movq %r8, 104(%rsp) movq 272(%rsp), %rax movq 280(%rsp), %rcx movq 288(%rsp), %rdx movq 296(%rsp), %rsi movq 304(%rsp), %rdi movq $4503599627370458, %r8 movq $4503599627370494, %r9 addq %r8, %rax addq %r9, %rcx addq %r9, %rdx addq %r9, %rsi addq %r9, %rdi subq 232(%rsp), %rax subq 240(%rsp), %rcx subq 248(%rsp), %rdx subq 256(%rsp), %rsi subq 264(%rsp), %rdi movq %rax, 232(%rsp) movq %rcx, 240(%rsp) movq %rdx, 248(%rsp) movq %rsi, 256(%rsp) movq %rdi, 264(%rsp) movq 352(%rsp), %rax mulq 352(%rsp) movq %rax, %r11 movq %rdx, %rbx movq 352(%rsp), %rax shlq $1, %rax mulq 360(%rsp) movq %rax, %rbp movq %rdx, %r10 movq 352(%rsp), %rax shlq $1, %rax mulq 368(%rsp) movq %rax, %r8 movq %rdx, %r12 movq 352(%rsp), %rax shlq $1, %rax mulq 376(%rsp) movq %rax, %rcx movq %rdx, %rsi movq 352(%rsp), %rax shlq $1, %rax mulq 384(%rsp) movq %rax, %rdi movq %rdx, %r9 movq 360(%rsp), %rax mulq 360(%rsp) addq %rax, %r8 adcq %rdx, %r12 movq 360(%rsp), %rax shlq $1, %rax mulq 368(%rsp) addq %rax, %rcx adcq %rdx, %rsi movq 360(%rsp), %rax shlq $1, %rax mulq 376(%rsp) addq %rax, %rdi adcq %rdx, %r9 movq 360(%rsp), %rax imulq $38, %rax, %rax mulq 384(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 368(%rsp), %rax mulq 368(%rsp) addq %rax, %rdi adcq %rdx, %r9 movq 368(%rsp), %rax imulq $38, %rax, %rax mulq 376(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 368(%rsp), %rax imulq $38, %rax, %rax mulq 384(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 376(%rsp), %rax imulq $19, %rax, %rax mulq 376(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 376(%rsp), %rax imulq $38, %rax, %rax mulq 384(%rsp) addq %rax, %r8 adcq %rdx, %r12 movq 384(%rsp), %rax imulq $19, %rax, %rax mulq 384(%rsp) addq %rax, %rcx adcq %rdx, %rsi movq $2251799813685247, %rax shldq $13, %r11, %rbx andq %rax, %r11 shldq $13, %rbp, %r10 andq %rax, %rbp addq %rbx, %rbp shldq $13, %r8, %r12 andq %rax, %r8 addq %r10, %r8 shldq $13, %rcx, %rsi andq %rax, %rcx addq %r12, %rcx shldq $13, %rdi, %r9 andq %rax, %rdi addq %rsi, %rdi imulq $19, %r9, %rdx addq %rdx, %r11 movq %r11, %rdx shrq $51, %rdx addq %rbp, %rdx andq %rax, %r11 movq %rdx, %rsi shrq $51, %rdx addq %r8, %rdx andq %rax, %rsi movq %rdx, %r8 shrq $51, %rdx addq %rcx, %rdx andq %rax, %r8 movq %rdx, %rcx shrq $51, %rdx addq %rdi, %rdx andq %rax, %rcx movq %rdx, %rdi shrq $51, %rdx imulq $19, %rdx, %rdx addq %rdx, %r11 andq %rax, %rdi movq %r11, 352(%rsp) movq %rsi, 360(%rsp) movq %r8, 368(%rsp) movq %rcx, 376(%rsp) movq %rdi, 384(%rsp) movq $996679680, %rcx movq 232(%rsp), %rax mulq %rcx shrq $13, %rax movq %rax, %rsi movq %rdx, %rdi movq 240(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %rdi movq %rdx, %r8 movq 248(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %r8 movq %rdx, %r9 movq 256(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %r9 movq %rdx, %r10 movq 264(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %r10 imulq $19, %rdx, %rax addq %rax, %rsi addq 272(%rsp), %rsi addq 280(%rsp), %rdi addq 288(%rsp), %r8 addq 296(%rsp), %r9 addq 304(%rsp), %r10 movq %rsi, 272(%rsp) movq %rdi, 280(%rsp) movq %r8, 288(%rsp) movq %r9, 296(%rsp) movq %r10, 304(%rsp) movq 392(%rsp), %rax mulq 392(%rsp) movq %rax, %rbx movq %rdx, %r8 movq 392(%rsp), %rax shlq $1, %rax mulq 400(%rsp) movq %rax, %r12 movq %rdx, %rsi movq 392(%rsp), %rax shlq $1, %rax mulq 408(%rsp) movq %rax, %rdi movq %rdx, %rcx movq 392(%rsp), %rax shlq $1, %rax mulq 416(%rsp) movq %rax, %rbp movq %rdx, %r11 movq 392(%rsp), %rax shlq $1, %rax mulq 424(%rsp) movq %rax, %r10 movq %rdx, %r9 movq 400(%rsp), %rax mulq 400(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 400(%rsp), %rax shlq $1, %rax mulq 408(%rsp) addq %rax, %rbp adcq %rdx, %r11 movq 400(%rsp), %rax shlq $1, %rax mulq 416(%rsp) addq %rax, %r10 adcq %rdx, %r9 movq 400(%rsp), %rax imulq $38, %rax, %rax mulq 424(%rsp) addq %rax, %rbx adcq %rdx, %r8 movq 408(%rsp), %rax mulq 408(%rsp) addq %rax, %r10 adcq %rdx, %r9 movq 408(%rsp), %rax imulq $38, %rax, %rax mulq 416(%rsp) addq %rax, %rbx adcq %rdx, %r8 movq 408(%rsp), %rax imulq $38, %rax, %rax mulq 424(%rsp) addq %rax, %r12 adcq %rdx, %rsi movq 416(%rsp), %rax imulq $19, %rax, %rax mulq 416(%rsp) addq %rax, %r12 adcq %rdx, %rsi movq 416(%rsp), %rax imulq $38, %rax, %rax mulq 424(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 424(%rsp), %rax imulq $19, %rax, %rax mulq 424(%rsp) addq %rax, %rbp adcq %rdx, %r11 movq $2251799813685247, %rax shldq $13, %rbx, %r8 andq %rax, %rbx shldq $13, %r12, %rsi andq %rax, %r12 addq %r8, %r12 shldq $13, %rdi, %rcx andq %rax, %rdi addq %rsi, %rdi shldq $13, %rbp, %r11 andq %rax, %rbp addq %rcx, %rbp shldq $13, %r10, %r9 andq %rax, %r10 addq %r11, %r10 imulq $19, %r9, %rcx addq %rcx, %rbx movq %rbx, %rcx shrq $51, %rcx addq %r12, %rcx andq %rax, %rbx movq %rcx, %rdx shrq $51, %rcx addq %rdi, %rcx andq %rax, %rdx movq %rcx, %rsi shrq $51, %rcx addq %rbp, %rcx andq %rax, %rsi movq %rcx, %rdi shrq $51, %rcx addq %r10, %rcx andq %rax, %rdi movq %rcx, %r8 shrq $51, %rcx imulq $19, %rcx, %rcx addq %rcx, %rbx andq %rax, %r8 movq %rbx, 112(%rsp) movq %rdx, 120(%rsp) movq %rsi, 128(%rsp) movq %rdi, 136(%rsp) movq %r8, 144(%rsp) movq 216(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 368(%rsp) movq %rax, %rdi movq %rdx, %rsi movq 224(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 360(%rsp) addq %rax, %rdi adcq %rdx, %rsi movq 192(%rsp), %rax mulq 352(%rsp) addq %rax, %rdi adcq %rdx, %rsi movq 192(%rsp), %rax mulq 360(%rsp) movq %rax, %r11 movq %rdx, %rbx movq 192(%rsp), %rax mulq 368(%rsp) movq %rax, %r8 movq %rdx, %r9 movq 192(%rsp), %rax mulq 376(%rsp) movq %rax, %r12 movq %rdx, %rcx movq 192(%rsp), %rax mulq 384(%rsp) movq %rax, %rbp movq %rdx, %r10 movq 200(%rsp), %rax mulq 352(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 200(%rsp), %rax mulq 360(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 200(%rsp), %rax mulq 368(%rsp) addq %rax, %r12 adcq %rdx, %rcx movq 200(%rsp), %rax mulq 376(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 200(%rsp), %rax imulq $19, %rax, %rax mulq 384(%rsp) addq %rax, %rdi adcq %rdx, %rsi movq 208(%rsp), %rax mulq 352(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 208(%rsp), %rax mulq 360(%rsp) addq %rax, %r12 adcq %rdx, %rcx movq 208(%rsp), %rax mulq 368(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 208(%rsp), %rax imulq $19, %rax, %rax mulq 376(%rsp) addq %rax, %rdi adcq %rdx, %rsi movq 208(%rsp), %rax imulq $19, %rax, %rax mulq 384(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 216(%rsp), %rax mulq 352(%rsp) addq %rax, %r12 adcq %rdx, %rcx movq 216(%rsp), %rax mulq 360(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 32(%rsp), %rax mulq 376(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 32(%rsp), %rax mulq 384(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 224(%rsp), %rax mulq 352(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 24(%rsp), %rax mulq 368(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 24(%rsp), %rax mulq 376(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 24(%rsp), %rax mulq 384(%rsp) addq %rax, %r12 adcq %rdx, %rcx movq $2251799813685247, %rax shldq $13, %rdi, %rsi andq %rax, %rdi shldq $13, %r11, %rbx andq %rax, %r11 addq %rsi, %r11 shldq $13, %r8, %r9 andq %rax, %r8 addq %rbx, %r8 shldq $13, %r12, %rcx andq %rax, %r12 addq %r9, %r12 shldq $13, %rbp, %r10 andq %rax, %rbp addq %rcx, %rbp imulq $19, %r10, %rcx addq %rcx, %rdi movq %rdi, %rcx shrq $51, %rcx addq %r11, %rcx movq %rcx, %rdx shrq $51, %rcx andq %rax, %rdi addq %r8, %rcx movq %rcx, %rsi shrq $51, %rcx andq %rax, %rdx addq %r12, %rcx movq %rcx, %r8 shrq $51, %rcx andq %rax, %rsi addq %rbp, %rcx movq %rcx, %r9 shrq $51, %rcx andq %rax, %r8 imulq $19, %rcx, %rcx addq %rcx, %rdi andq %rax, %r9 movq %rdi, 152(%rsp) movq %rdx, 160(%rsp) movq %rsi, 168(%rsp) movq %r8, 176(%rsp) movq %r9, 184(%rsp) movq 256(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 288(%rsp) movq %rax, %rbp movq %rdx, %rdi movq 264(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 280(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 232(%rsp), %rax mulq 272(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 232(%rsp), %rax mulq 280(%rsp) movq %rax, %rbx movq %rdx, %r12 movq 232(%rsp), %rax mulq 288(%rsp) movq %rax, %rsi movq %rdx, %r10 movq 232(%rsp), %rax mulq 296(%rsp) movq %rax, %r11 movq %rdx, %r8 movq 232(%rsp), %rax mulq 304(%rsp) movq %rax, %rcx movq %rdx, %r9 movq 240(%rsp), %rax mulq 272(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 240(%rsp), %rax mulq 280(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 240(%rsp), %rax mulq 288(%rsp) addq %rax, %r11 adcq %rdx, %r8 movq 240(%rsp), %rax mulq 296(%rsp) addq %rax, %rcx adcq %rdx, %r9 movq 240(%rsp), %rax imulq $19, %rax, %rax mulq 304(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 248(%rsp), %rax mulq 272(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 248(%rsp), %rax mulq 280(%rsp) addq %rax, %r11 adcq %rdx, %r8 movq 248(%rsp), %rax mulq 288(%rsp) addq %rax, %rcx adcq %rdx, %r9 movq 248(%rsp), %rax imulq $19, %rax, %rax mulq 296(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 248(%rsp), %rax imulq $19, %rax, %rax mulq 304(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 256(%rsp), %rax mulq 272(%rsp) addq %rax, %r11 adcq %rdx, %r8 movq 256(%rsp), %rax mulq 280(%rsp) addq %rax, %rcx adcq %rdx, %r9 movq 24(%rsp), %rax mulq 296(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 24(%rsp), %rax mulq 304(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 264(%rsp), %rax mulq 272(%rsp) addq %rax, %rcx adcq %rdx, %r9 movq 32(%rsp), %rax mulq 288(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 32(%rsp), %rax mulq 296(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 32(%rsp), %rax mulq 304(%rsp) addq %rax, %r11 adcq %rdx, %r8 movq $2251799813685247, %r13 shldq $13, %rbp, %rdi andq %r13, %rbp shldq $13, %rbx, %r12 andq %r13, %rbx addq %rdi, %rbx shldq $13, %rsi, %r10 andq %r13, %rsi addq %r12, %rsi shldq $13, %r11, %r8 andq %r13, %r11 addq %r10, %r11 shldq $13, %rcx, %r9 andq %r13, %rcx addq %r8, %rcx imulq $19, %r9, %rax addq %rax, %rbp movq %rbp, %r8 shrq $51, %r8 addq %rbx, %r8 movq %r8, %rax shrq $51, %r8 andq %r13, %rbp addq %rsi, %r8 movq %r8, %rdx shrq $51, %r8 andq %r13, %rax addq %r11, %r8 movq %r8, %rsi shrq $51, %r8 andq %r13, %rdx addq %rcx, %r8 movq %r8, %rdi shrq $51, %r8 andq %r13, %rsi imulq $19, %r8, %rcx addq %rcx, %rbp andq %r13, %rdi movq 16(%rsp), %rcx cmpq $0, %rcx jnbe Ljade_scalarmult_curve25519_amd64_ref5_base$28 movq %rbp, 152(%rsp) movq %rax, 160(%rsp) movq %rdx, 168(%rsp) movq %rsi, 176(%rsp) movq %rdi, 184(%rsp) movq 152(%rsp), %rax movq %rax, 112(%rsp) movq 160(%rsp), %rax movq %rax, 120(%rsp) movq 168(%rsp), %rax movq %rax, 128(%rsp) movq 176(%rsp), %rax movq %rax, 136(%rsp) movq 184(%rsp), %rax movq %rax, 144(%rsp) leaq 112(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$27(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$27: leaq 8(%rsp), %rsp movq 112(%rsp), %rax movq %rax, 192(%rsp) movq 120(%rsp), %rax movq %rax, 200(%rsp) movq 128(%rsp), %rax movq %rax, 208(%rsp) movq 136(%rsp), %rax movq %rax, 216(%rsp) movq 144(%rsp), %rax movq %rax, 224(%rsp) leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$26(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$26: leaq 8(%rsp), %rsp leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$25(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$25: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$24(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$24: leaq 24(%rsp), %rsp leaq 112(%rsp), %r9 leaq 192(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$23(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$23: leaq 24(%rsp), %rsp movq 112(%rsp), %rax movq %rax, 152(%rsp) movq 120(%rsp), %rax movq %rax, 160(%rsp) movq 128(%rsp), %rax movq %rax, 168(%rsp) movq 136(%rsp), %rax movq %rax, 176(%rsp) movq 144(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$22(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$22: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$21(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$21: leaq 24(%rsp), %rsp movq 192(%rsp), %rax movq %rax, 152(%rsp) movq 200(%rsp), %rax movq %rax, 160(%rsp) movq 208(%rsp), %rax movq %rax, 168(%rsp) movq 216(%rsp), %rax movq %rax, 176(%rsp) movq 224(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$20(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$20: leaq 8(%rsp), %rsp movl $4, %r13d leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$19(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$19: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$18(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$18: leaq 24(%rsp), %rsp movl $10, %r13d movq 192(%rsp), %rax movq %rax, 152(%rsp) movq 200(%rsp), %rax movq %rax, 160(%rsp) movq 208(%rsp), %rax movq %rax, 168(%rsp) movq 216(%rsp), %rax movq %rax, 176(%rsp) movq 224(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$17(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$17: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 192(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$16(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$16: leaq 24(%rsp), %rsp movl $20, %r13d movq 152(%rsp), %rax movq %rax, 272(%rsp) movq 160(%rsp), %rax movq %rax, 280(%rsp) movq 168(%rsp), %rax movq %rax, 288(%rsp) movq 176(%rsp), %rax movq %rax, 296(%rsp) movq 184(%rsp), %rax movq %rax, 304(%rsp) leaq 272(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$15(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$15: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 272(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$14(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$14: leaq 24(%rsp), %rsp movl $10, %r13d leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$13(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$13: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$12(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$12: leaq 24(%rsp), %rsp movl $50, %r13d movq 192(%rsp), %rax movq %rax, 152(%rsp) movq 200(%rsp), %rax movq %rax, 160(%rsp) movq 208(%rsp), %rax movq %rax, 168(%rsp) movq 216(%rsp), %rax movq %rax, 176(%rsp) movq 224(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$11(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$11: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 192(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$10(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$10: leaq 24(%rsp), %rsp movl $100, %r13d movq 152(%rsp), %rax movq %rax, 272(%rsp) movq 160(%rsp), %rax movq %rax, 280(%rsp) movq 168(%rsp), %rax movq %rax, 288(%rsp) movq 176(%rsp), %rax movq %rax, 296(%rsp) movq 184(%rsp), %rax movq %rax, 304(%rsp) leaq 272(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$9(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$9: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 272(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$8(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$8: leaq 24(%rsp), %rsp movl $50, %r13d leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$7(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$7: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$6(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$6: leaq 24(%rsp), %rsp movl $4, %r13d leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$5(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$5: leaq 8(%rsp), %rsp leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$4(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$4: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 112(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$3(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$3: leaq 24(%rsp), %rsp movq 96(%rsp), %rax imulq $19, %rax, %rax movq %rax, 8(%rsp) mulq 208(%rsp) movq %rax, %r9 movq %rdx, %r12 movq 104(%rsp), %rax imulq $19, %rax, %rax movq %rax, 16(%rsp) mulq 200(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 72(%rsp), %rax mulq 192(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 72(%rsp), %rax mulq 200(%rsp) movq %rax, %r11 movq %rdx, %rdi movq 72(%rsp), %rax mulq 208(%rsp) movq %rax, %rsi movq %rdx, %r10 movq 72(%rsp), %rax mulq 216(%rsp) movq %rax, %rcx movq %rdx, %r8 movq 72(%rsp), %rax mulq 224(%rsp) movq %rax, %rbx movq %rdx, %rbp movq 80(%rsp), %rax mulq 192(%rsp) addq %rax, %r11 adcq %rdx, %rdi movq 80(%rsp), %rax mulq 200(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 80(%rsp), %rax mulq 208(%rsp) addq %rax, %rcx adcq %rdx, %r8 movq 80(%rsp), %rax mulq 216(%rsp) addq %rax, %rbx adcq %rdx, %rbp movq 80(%rsp), %rax imulq $19, %rax, %rax mulq 224(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 88(%rsp), %rax mulq 192(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 88(%rsp), %rax mulq 200(%rsp) addq %rax, %rcx adcq %rdx, %r8 movq 88(%rsp), %rax mulq 208(%rsp) addq %rax, %rbx adcq %rdx, %rbp movq 88(%rsp), %rax imulq $19, %rax, %rax mulq 216(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 88(%rsp), %rax imulq $19, %rax, %rax mulq 224(%rsp) addq %rax, %r11 adcq %rdx, %rdi movq 96(%rsp), %rax mulq 192(%rsp) addq %rax, %rcx adcq %rdx, %r8 movq 96(%rsp), %rax mulq 200(%rsp) addq %rax, %rbx adcq %rdx, %rbp movq 8(%rsp), %rax mulq 216(%rsp) addq %rax, %r11 adcq %rdx, %rdi movq 8(%rsp), %rax mulq 224(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 104(%rsp), %rax mulq 192(%rsp) addq %rax, %rbx adcq %rdx, %rbp movq 16(%rsp), %rax mulq 208(%rsp) addq %rax, %r11 adcq %rdx, %rdi movq 16(%rsp), %rax mulq 216(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 16(%rsp), %rax mulq 224(%rsp) addq %rax, %rcx adcq %rdx, %r8 movq $2251799813685247, %rax shldq $13, %r9, %r12 andq %rax, %r9 shldq $13, %r11, %rdi andq %rax, %r11 addq %r12, %r11 shldq $13, %rsi, %r10 andq %rax, %rsi addq %rdi, %rsi shldq $13, %rcx, %r8 andq %rax, %rcx addq %r10, %rcx shldq $13, %rbx, %rbp andq %rax, %rbx addq %r8, %rbx imulq $19, %rbp, %rdx addq %rdx, %r9 movq %r9, %r8 shrq $51, %r8 addq %r11, %r8 movq %r8, %rdx shrq $51, %r8 andq %rax, %r9 addq %rsi, %r8 movq %r8, %rsi shrq $51, %r8 andq %rax, %rdx addq %rcx, %r8 movq %r8, %rcx shrq $51, %r8 andq %rax, %rsi addq %rbx, %r8 movq %r8, %rdi shrq $51, %r8 andq %rax, %rcx imulq $19, %r8, %r8 addq %r8, %r9 andq %rax, %rdi movq $2251799813685247, %rax movq %rax, %r8 addq $-18, %r8 movq $3, %r10 jmp Ljade_scalarmult_curve25519_amd64_ref5_base$1 Ljade_scalarmult_curve25519_amd64_ref5_base$2: movq %r9, %r11 shrq $51, %r11 andq %rax, %r9 addq %r11, %rdx movq %rdx, %r11 shrq $51, %r11 andq %rax, %rdx addq %r11, %rsi movq %rsi, %r11 shrq $51, %r11 andq %rax, %rsi addq %r11, %rcx movq %rcx, %r11 shrq $51, %r11 andq %rax, %rcx addq %r11, %rdi movq %rdi, %r11 shrq $51, %r11 andq %rax, %rdi imulq $19, %r11, %r11 addq %r11, %r9 addq $-1, %r10 Ljade_scalarmult_curve25519_amd64_ref5_base$1: cmpq $0, %r10 jnbe Ljade_scalarmult_curve25519_amd64_ref5_base$2 movq $1, %r11 cmpq %r8, %r9 cmovl %r10, %r11 cmpq %rax, %rdx cmovne %r10, %r11 cmpq %rax, %rsi cmovne %r10, %r11 cmpq %rax, %rcx cmovne %r10, %r11 cmpq %rax, %rdi cmovne %r10, %r11 negq %r11 andq %r11, %rax andq %r11, %r8 subq %r8, %r9 subq %rax, %rdx subq %rax, %rsi subq %rax, %rcx subq %rax, %rdi movq %rdx, %rax shlq $51, %rax orq %r9, %rax movq %rsi, %r8 shlq $38, %r8 shrq $13, %rdx orq %rdx, %r8 movq %rcx, %rdx shlq $25, %rdx shrq $26, %rsi orq %rsi, %rdx shlq $12, %rdi shrq $39, %rcx orq %rcx, %rdi movq (%rsp), %rcx movq %rax, (%rcx) movq %r8, 8(%rcx) movq %rdx, 16(%rcx) movq %rdi, 24(%rcx) xorq %rax, %rax movq 432(%rsp), %rbx movq 440(%rsp), %rbp movq 448(%rsp), %r12 movq 456(%rsp), %r13 movq 464(%rsp), %r14 movq 472(%rsp), %rsp ret _jade_scalarmult_curve25519_amd64_ref5: jade_scalarmult_curve25519_amd64_ref5: movq %rsp, %rax leaq -480(%rsp), %rsp andq $-8, %rsp movq %rax, 472(%rsp) movq %rbx, 432(%rsp) movq %rbp, 440(%rsp) movq %r12, 448(%rsp) movq %r13, 456(%rsp) movq %r14, 464(%rsp) movq %rdi, (%rsp) movq (%rsi), %rax movq %rax, 40(%rsp) movq 8(%rsi), %rax movq %rax, 48(%rsp) movq 16(%rsi), %rax movq %rax, 56(%rsp) movq 24(%rsi), %rax movq %rax, 64(%rsp) andb $-8, 40(%rsp) andb $127, 71(%rsp) orb $64, 71(%rsp) movq (%rdx), %rax movq 8(%rdx), %rsi movq 16(%rdx), %rdi movq 24(%rdx), %rdx movq $2251799813685247, %r9 movq %rax, %rcx andq %r9, %rcx movq %rsi, %r8 shlq $13, %r8 shrq $51, %rax orq %rax, %r8 andq %r9, %r8 movq %rdi, %r10 shlq $26, %r10 shrq $38, %rsi orq %rsi, %r10 andq %r9, %r10 movq %rdx, %r11 shlq $39, %r11 shrq $25, %rdi orq %rdi, %r11 andq %r9, %r11 movq %rdx, %rbp shrq $12, %rbp andq %r9, %rbp xorq %r9, %r9 movq $1, 72(%rsp) movq $0, %rbx movq %rcx, 112(%rsp) movq %r8, 120(%rsp) movq %r10, 128(%rsp) movq %r11, 136(%rsp) movq %rbp, 144(%rsp) movq $1, 152(%rsp) movq %r9, 80(%rsp) movq %r9, %rax movq %r9, 160(%rsp) movq %r9, 88(%rsp) movq %r9, %rdx movq %r9, 168(%rsp) movq %r9, 96(%rsp) movq %r9, %rsi movq %r9, 176(%rsp) movq %r9, 104(%rsp) movq %r9, %rdi movq %r9, 184(%rsp) movq %rcx, 192(%rsp) movq %r8, 200(%rsp) movq %r10, 208(%rsp) movq %r11, 216(%rsp) movq %rbp, 224(%rsp) movq $255, %rcx movq $0, 8(%rsp) Ljade_scalarmult_curve25519_amd64_ref5$28: addq $-1, %rcx movq %rcx, 16(%rsp) movq %rcx, %r8 shrq $3, %r8 movzbq 40(%rsp,%r8), %r8 andq $7, %rcx shrq %cl, %r8 andq $1, %r8 movq 8(%rsp), %r9 xorq %r8, %r9 xorq %rcx, %rcx subq %r9, %rcx movq %rbx, %r11 movq %rax, %rbp movq %rdx, %r12 movq %rsi, %r9 movq %rdi, %r10 xorq 152(%rsp), %r11 andq %rcx, %r11 xorq 160(%rsp), %rbp andq %rcx, %rbp xorq 168(%rsp), %r12 andq %rcx, %r12 xorq 176(%rsp), %r9 andq %rcx, %r9 xorq 184(%rsp), %r10 andq %rcx, %r10 xorq %r11, %rbx movq 152(%rsp), %r13 xorq %r11, %r13 movq %r13, 152(%rsp) xorq %rbp, %rax movq 160(%rsp), %r11 xorq %rbp, %r11 movq %r11, 160(%rsp) xorq %r12, %rdx movq 168(%rsp), %r11 xorq %r12, %r11 movq %r11, 168(%rsp) xorq %r9, %rsi movq 176(%rsp), %r11 xorq %r9, %r11 movq %r11, 176(%rsp) xorq %r10, %rdi movq 184(%rsp), %r9 xorq %r10, %r9 movq %r9, 184(%rsp) movq 112(%rsp), %r12 movq 120(%rsp), %r9 movq 128(%rsp), %r10 movq 136(%rsp), %r11 movq 144(%rsp), %rbp movq 72(%rsp), %r13 movq %r12, %r14 xorq %r13, %r14 andq %rcx, %r14 xorq %r14, %r13 xorq %r14, %r12 movq %r13, 72(%rsp) movq %r12, 112(%rsp) movq 80(%rsp), %r12 movq %r9, %r13 xorq %r12, %r13 andq %rcx, %r13 xorq %r13, %r12 xorq %r13, %r9 movq %r12, 80(%rsp) movq %r9, 120(%rsp) movq 88(%rsp), %r9 movq %r10, %r12 xorq %r9, %r12 andq %rcx, %r12 xorq %r12, %r9 xorq %r12, %r10 movq %r9, 88(%rsp) movq %r10, 128(%rsp) movq 96(%rsp), %r9 movq %r11, %r10 xorq %r9, %r10 andq %rcx, %r10 xorq %r10, %r9 xorq %r10, %r11 movq %r9, 96(%rsp) movq %r11, 136(%rsp) movq 104(%rsp), %r9 movq %rbp, %r10 xorq %r9, %r10 andq %rcx, %r10 xorq %r10, %r9 xorq %r10, %rbp movq %r9, 104(%rsp) movq %rbp, 144(%rsp) movq %r8, 8(%rsp) movq $4503599627370458, %rcx movq $4503599627370494, %r8 movq 72(%rsp), %r9 movq 80(%rsp), %r10 movq 88(%rsp), %r11 movq 96(%rsp), %rbp movq 104(%rsp), %r12 addq %rcx, %r9 addq %r8, %r10 addq %r8, %r11 addq %r8, %rbp addq %r8, %r12 subq %rbx, %r9 subq %rax, %r10 subq %rdx, %r11 subq %rsi, %rbp subq %rdi, %r12 movq %r9, 232(%rsp) movq %r10, 240(%rsp) movq %r11, 248(%rsp) movq %rbp, 256(%rsp) movq %r12, 264(%rsp) addq 72(%rsp), %rbx addq 80(%rsp), %rax addq 88(%rsp), %rdx addq 96(%rsp), %rsi addq 104(%rsp), %rdi movq %rbx, 272(%rsp) movq %rax, 280(%rsp) movq %rdx, 288(%rsp) movq %rsi, 296(%rsp) movq %rdi, 304(%rsp) movq 112(%rsp), %rax movq 120(%rsp), %rcx movq 128(%rsp), %rdx movq 136(%rsp), %rsi movq 144(%rsp), %rdi movq $4503599627370458, %r8 movq $4503599627370494, %r9 addq %r8, %rax addq %r9, %rcx addq %r9, %rdx addq %r9, %rsi addq %r9, %rdi subq 152(%rsp), %rax subq 160(%rsp), %rcx subq 168(%rsp), %rdx subq 176(%rsp), %rsi subq 184(%rsp), %rdi movq %rax, 312(%rsp) movq %rcx, 320(%rsp) movq %rdx, 328(%rsp) movq %rsi, 336(%rsp) movq %rdi, 344(%rsp) movq 112(%rsp), %rax movq 120(%rsp), %rcx movq 128(%rsp), %rdx movq 136(%rsp), %rsi movq 144(%rsp), %rdi addq 152(%rsp), %rax addq 160(%rsp), %rcx addq 168(%rsp), %rdx addq 176(%rsp), %rsi addq 184(%rsp), %rdi movq %rax, 352(%rsp) movq %rcx, 360(%rsp) movq %rdx, 368(%rsp) movq %rsi, 376(%rsp) movq %rdi, 384(%rsp) movq 296(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 328(%rsp) movq %rax, %r12 movq %rdx, %r9 movq 304(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 320(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 272(%rsp), %rax mulq 312(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 272(%rsp), %rax mulq 320(%rsp) movq %rax, %rsi movq %rdx, %rbx movq 272(%rsp), %rax mulq 328(%rsp) movq %rax, %r10 movq %rdx, %r8 movq 272(%rsp), %rax mulq 336(%rsp) movq %rax, %rdi movq %rdx, %rbp movq 272(%rsp), %rax mulq 344(%rsp) movq %rax, %r11 movq %rdx, %rcx movq 280(%rsp), %rax mulq 312(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 280(%rsp), %rax mulq 320(%rsp) addq %rax, %r10 adcq %rdx, %r8 movq 280(%rsp), %rax mulq 328(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq 280(%rsp), %rax mulq 336(%rsp) addq %rax, %r11 adcq %rdx, %rcx movq 280(%rsp), %rax imulq $19, %rax, %rax mulq 344(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 288(%rsp), %rax mulq 312(%rsp) addq %rax, %r10 adcq %rdx, %r8 movq 288(%rsp), %rax mulq 320(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq 288(%rsp), %rax mulq 328(%rsp) addq %rax, %r11 adcq %rdx, %rcx movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 336(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 344(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 296(%rsp), %rax mulq 312(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq 296(%rsp), %rax mulq 320(%rsp) addq %rax, %r11 adcq %rdx, %rcx movq 24(%rsp), %rax mulq 336(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 24(%rsp), %rax mulq 344(%rsp) addq %rax, %r10 adcq %rdx, %r8 movq 304(%rsp), %rax mulq 312(%rsp) addq %rax, %r11 adcq %rdx, %rcx movq 32(%rsp), %rax mulq 328(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 32(%rsp), %rax mulq 336(%rsp) addq %rax, %r10 adcq %rdx, %r8 movq 32(%rsp), %rax mulq 344(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq $2251799813685247, %rax shldq $13, %r12, %r9 andq %rax, %r12 shldq $13, %rsi, %rbx andq %rax, %rsi addq %r9, %rsi shldq $13, %r10, %r8 andq %rax, %r10 addq %rbx, %r10 shldq $13, %rdi, %rbp andq %rax, %rdi addq %r8, %rdi shldq $13, %r11, %rcx andq %rax, %r11 addq %rbp, %r11 imulq $19, %rcx, %rcx addq %rcx, %r12 movq %r12, %rcx shrq $51, %rcx addq %rsi, %rcx movq %rcx, %rdx shrq $51, %rcx andq %rax, %r12 addq %r10, %rcx movq %rcx, %rsi shrq $51, %rcx andq %rax, %rdx addq %rdi, %rcx movq %rcx, %rdi shrq $51, %rcx andq %rax, %rsi addq %r11, %rcx movq %rcx, %r8 shrq $51, %rcx andq %rax, %rdi imulq $19, %rcx, %rcx addq %rcx, %r12 andq %rax, %r8 movq %r12, 312(%rsp) movq %rdx, 320(%rsp) movq %rsi, 328(%rsp) movq %rdi, 336(%rsp) movq %r8, 344(%rsp) movq 376(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 248(%rsp) movq %rax, %r10 movq %rdx, %r9 movq 384(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 240(%rsp) addq %rax, %r10 adcq %rdx, %r9 movq 352(%rsp), %rax mulq 232(%rsp) addq %rax, %r10 adcq %rdx, %r9 movq 352(%rsp), %rax mulq 240(%rsp) movq %rax, %rdi movq %rdx, %rbx movq 352(%rsp), %rax mulq 248(%rsp) movq %rax, %rsi movq %rdx, %rcx movq 352(%rsp), %rax mulq 256(%rsp) movq %rax, %r12 movq %rdx, %r8 movq 352(%rsp), %rax mulq 264(%rsp) movq %rax, %r11 movq %rdx, %rbp movq 360(%rsp), %rax mulq 232(%rsp) addq %rax, %rdi adcq %rdx, %rbx movq 360(%rsp), %rax mulq 240(%rsp) addq %rax, %rsi adcq %rdx, %rcx movq 360(%rsp), %rax mulq 248(%rsp) addq %rax, %r12 adcq %rdx, %r8 movq 360(%rsp), %rax mulq 256(%rsp) addq %rax, %r11 adcq %rdx, %rbp movq 360(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %r10 adcq %rdx, %r9 movq 368(%rsp), %rax mulq 232(%rsp) addq %rax, %rsi adcq %rdx, %rcx movq 368(%rsp), %rax mulq 240(%rsp) addq %rax, %r12 adcq %rdx, %r8 movq 368(%rsp), %rax mulq 248(%rsp) addq %rax, %r11 adcq %rdx, %rbp movq 368(%rsp), %rax imulq $19, %rax, %rax mulq 256(%rsp) addq %rax, %r10 adcq %rdx, %r9 movq 368(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %rdi adcq %rdx, %rbx movq 376(%rsp), %rax mulq 232(%rsp) addq %rax, %r12 adcq %rdx, %r8 movq 376(%rsp), %rax mulq 240(%rsp) addq %rax, %r11 adcq %rdx, %rbp movq 32(%rsp), %rax mulq 256(%rsp) addq %rax, %rdi adcq %rdx, %rbx movq 32(%rsp), %rax mulq 264(%rsp) addq %rax, %rsi adcq %rdx, %rcx movq 384(%rsp), %rax mulq 232(%rsp) addq %rax, %r11 adcq %rdx, %rbp movq 24(%rsp), %rax mulq 248(%rsp) addq %rax, %rdi adcq %rdx, %rbx movq 24(%rsp), %rax mulq 256(%rsp) addq %rax, %rsi adcq %rdx, %rcx movq 24(%rsp), %rax mulq 264(%rsp) addq %rax, %r12 adcq %rdx, %r8 movq $2251799813685247, %rax shldq $13, %r10, %r9 andq %rax, %r10 shldq $13, %rdi, %rbx andq %rax, %rdi addq %r9, %rdi shldq $13, %rsi, %rcx andq %rax, %rsi addq %rbx, %rsi shldq $13, %r12, %r8 andq %rax, %r12 addq %rcx, %r12 shldq $13, %r11, %rbp andq %rax, %r11 addq %r8, %r11 imulq $19, %rbp, %rcx addq %rcx, %r10 movq %r10, %rcx shrq $51, %rcx addq %rdi, %rcx movq %rcx, %rdx shrq $51, %rcx andq %rax, %r10 addq %rsi, %rcx movq %rcx, %rsi shrq $51, %rcx andq %rax, %rdx addq %r12, %rcx movq %rcx, %rdi shrq $51, %rcx andq %rax, %rsi addq %r11, %rcx movq %rcx, %r8 shrq $51, %rcx andq %rax, %rdi imulq $19, %rcx, %rcx addq %rcx, %r10 andq %rax, %r8 movq %r10, 352(%rsp) movq %rdx, 360(%rsp) movq %rsi, 368(%rsp) movq %rdi, 376(%rsp) movq %r8, 384(%rsp) movq 272(%rsp), %rax mulq 272(%rsp) movq %rax, %r11 movq %rdx, %rbx movq 272(%rsp), %rax shlq $1, %rax mulq 280(%rsp) movq %rax, %r12 movq %rdx, %r9 movq 272(%rsp), %rax shlq $1, %rax mulq 288(%rsp) movq %rax, %rdi movq %rdx, %rcx movq 272(%rsp), %rax shlq $1, %rax mulq 296(%rsp) movq %rax, %rsi movq %rdx, %r10 movq 272(%rsp), %rax shlq $1, %rax mulq 304(%rsp) movq %rax, %rbp movq %rdx, %r8 movq 280(%rsp), %rax mulq 280(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 280(%rsp), %rax shlq $1, %rax mulq 288(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 280(%rsp), %rax shlq $1, %rax mulq 296(%rsp) addq %rax, %rbp adcq %rdx, %r8 movq 280(%rsp), %rax imulq $38, %rax, %rax mulq 304(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 288(%rsp), %rax mulq 288(%rsp) addq %rax, %rbp adcq %rdx, %r8 movq 288(%rsp), %rax imulq $38, %rax, %rax mulq 296(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 288(%rsp), %rax imulq $38, %rax, %rax mulq 304(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 296(%rsp), %rax imulq $19, %rax, %rax mulq 296(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 296(%rsp), %rax imulq $38, %rax, %rax mulq 304(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 304(%rsp), %rax imulq $19, %rax, %rax mulq 304(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq $2251799813685247, %rax shldq $13, %r11, %rbx andq %rax, %r11 shldq $13, %r12, %r9 andq %rax, %r12 addq %rbx, %r12 shldq $13, %rdi, %rcx andq %rax, %rdi addq %r9, %rdi shldq $13, %rsi, %r10 andq %rax, %rsi addq %rcx, %rsi shldq $13, %rbp, %r8 andq %rax, %rbp addq %r10, %rbp imulq $19, %r8, %rcx addq %rcx, %r11 movq %r11, %rcx shrq $51, %rcx addq %r12, %rcx andq %rax, %r11 movq %rcx, %rdx shrq $51, %rcx addq %rdi, %rcx andq %rax, %rdx movq %rcx, %rdi shrq $51, %rcx addq %rsi, %rcx andq %rax, %rdi movq %rcx, %rsi shrq $51, %rcx addq %rbp, %rcx andq %rax, %rsi movq %rcx, %r8 shrq $51, %rcx imulq $19, %rcx, %rcx addq %rcx, %r11 andq %rax, %r8 movq %r11, 272(%rsp) movq %rdx, 280(%rsp) movq %rdi, 288(%rsp) movq %rsi, 296(%rsp) movq %r8, 304(%rsp) movq 232(%rsp), %rax mulq 232(%rsp) movq %rax, %rcx movq %rdx, %rsi movq 232(%rsp), %rax shlq $1, %rax mulq 240(%rsp) movq %rax, %rbp movq %rdx, %r10 movq 232(%rsp), %rax shlq $1, %rax mulq 248(%rsp) movq %rax, %rdi movq %rdx, %r11 movq 232(%rsp), %rax shlq $1, %rax mulq 256(%rsp) movq %rax, %r12 movq %rdx, %r8 movq 232(%rsp), %rax shlq $1, %rax mulq 264(%rsp) movq %rax, %rbx movq %rdx, %r9 movq 240(%rsp), %rax mulq 240(%rsp) addq %rax, %rdi adcq %rdx, %r11 movq 240(%rsp), %rax shlq $1, %rax mulq 248(%rsp) addq %rax, %r12 adcq %rdx, %r8 movq 240(%rsp), %rax shlq $1, %rax mulq 256(%rsp) addq %rax, %rbx adcq %rdx, %r9 movq 240(%rsp), %rax imulq $38, %rax, %rax mulq 264(%rsp) addq %rax, %rcx adcq %rdx, %rsi movq 248(%rsp), %rax mulq 248(%rsp) addq %rax, %rbx adcq %rdx, %r9 movq 248(%rsp), %rax imulq $38, %rax, %rax mulq 256(%rsp) addq %rax, %rcx adcq %rdx, %rsi movq 248(%rsp), %rax imulq $38, %rax, %rax mulq 264(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 256(%rsp), %rax imulq $19, %rax, %rax mulq 256(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 256(%rsp), %rax imulq $38, %rax, %rax mulq 264(%rsp) addq %rax, %rdi adcq %rdx, %r11 movq 264(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %r12 adcq %rdx, %r8 movq $2251799813685247, %rax shldq $13, %rcx, %rsi andq %rax, %rcx shldq $13, %rbp, %r10 andq %rax, %rbp addq %rsi, %rbp shldq $13, %rdi, %r11 andq %rax, %rdi addq %r10, %rdi shldq $13, %r12, %r8 andq %rax, %r12 addq %r11, %r12 shldq $13, %rbx, %r9 andq %rax, %rbx addq %r8, %rbx imulq $19, %r9, %rdx addq %rdx, %rcx movq %rcx, %rdx shrq $51, %rdx addq %rbp, %rdx andq %rax, %rcx movq %rdx, %rsi shrq $51, %rdx addq %rdi, %rdx andq %rax, %rsi movq %rdx, %rdi shrq $51, %rdx addq %r12, %rdx andq %rax, %rdi movq %rdx, %r8 shrq $51, %rdx addq %rbx, %rdx andq %rax, %r8 movq %rdx, %r9 shrq $51, %rdx imulq $19, %rdx, %rdx addq %rdx, %rcx andq %rax, %r9 movq %rcx, 232(%rsp) movq %rsi, 240(%rsp) movq %rdi, 248(%rsp) movq %r8, 256(%rsp) movq %r9, 264(%rsp) movq 312(%rsp), %rax movq 320(%rsp), %rcx movq 328(%rsp), %rdx movq 336(%rsp), %rsi movq 344(%rsp), %rdi addq 352(%rsp), %rax addq 360(%rsp), %rcx addq 368(%rsp), %rdx addq 376(%rsp), %rsi addq 384(%rsp), %rdi movq %rax, 392(%rsp) movq %rcx, 400(%rsp) movq %rdx, 408(%rsp) movq %rsi, 416(%rsp) movq %rdi, 424(%rsp) movq 312(%rsp), %rax movq 320(%rsp), %rcx movq 328(%rsp), %rdx movq 336(%rsp), %rsi movq 344(%rsp), %rdi movq $4503599627370458, %r8 movq $4503599627370494, %r9 addq %r8, %rax addq %r9, %rcx addq %r9, %rdx addq %r9, %rsi addq %r9, %rdi subq 352(%rsp), %rax subq 360(%rsp), %rcx subq 368(%rsp), %rdx subq 376(%rsp), %rsi subq 384(%rsp), %rdi movq %rax, 352(%rsp) movq %rcx, 360(%rsp) movq %rdx, 368(%rsp) movq %rsi, 376(%rsp) movq %rdi, 384(%rsp) movq 296(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 248(%rsp) movq %rax, %r8 movq %rdx, %r11 movq 304(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 240(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 272(%rsp), %rax mulq 232(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 272(%rsp), %rax mulq 240(%rsp) movq %rax, %r10 movq %rdx, %rbx movq 272(%rsp), %rax mulq 248(%rsp) movq %rax, %rdi movq %rdx, %rcx movq 272(%rsp), %rax mulq 256(%rsp) movq %rax, %rsi movq %rdx, %r12 movq 272(%rsp), %rax mulq 264(%rsp) movq %rax, %rbp movq %rdx, %r9 movq 280(%rsp), %rax mulq 232(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 280(%rsp), %rax mulq 240(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 280(%rsp), %rax mulq 248(%rsp) addq %rax, %rsi adcq %rdx, %r12 movq 280(%rsp), %rax mulq 256(%rsp) addq %rax, %rbp adcq %rdx, %r9 movq 280(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 288(%rsp), %rax mulq 232(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 288(%rsp), %rax mulq 240(%rsp) addq %rax, %rsi adcq %rdx, %r12 movq 288(%rsp), %rax mulq 248(%rsp) addq %rax, %rbp adcq %rdx, %r9 movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 256(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 296(%rsp), %rax mulq 232(%rsp) addq %rax, %rsi adcq %rdx, %r12 movq 296(%rsp), %rax mulq 240(%rsp) addq %rax, %rbp adcq %rdx, %r9 movq 24(%rsp), %rax mulq 256(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 24(%rsp), %rax mulq 264(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 304(%rsp), %rax mulq 232(%rsp) addq %rax, %rbp adcq %rdx, %r9 movq 32(%rsp), %rax mulq 248(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 32(%rsp), %rax mulq 256(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 32(%rsp), %rax mulq 264(%rsp) addq %rax, %rsi adcq %rdx, %r12 movq $2251799813685247, %rax shldq $13, %r8, %r11 andq %rax, %r8 shldq $13, %r10, %rbx andq %rax, %r10 addq %r11, %r10 shldq $13, %rdi, %rcx andq %rax, %rdi addq %rbx, %rdi shldq $13, %rsi, %r12 andq %rax, %rsi addq %rcx, %rsi shldq $13, %rbp, %r9 andq %rax, %rbp addq %r12, %rbp imulq $19, %r9, %rcx addq %rcx, %r8 movq %r8, %rcx shrq $51, %rcx addq %r10, %rcx movq %rcx, %rdx shrq $51, %rcx andq %rax, %r8 addq %rdi, %rcx movq %rcx, %rdi shrq $51, %rcx andq %rax, %rdx addq %rsi, %rcx movq %rcx, %rsi shrq $51, %rcx andq %rax, %rdi addq %rbp, %rcx movq %rcx, %r9 shrq $51, %rcx andq %rax, %rsi imulq $19, %rcx, %rcx addq %rcx, %r8 andq %rax, %r9 movq %r8, 72(%rsp) movq %rdx, 80(%rsp) movq %rdi, 88(%rsp) movq %rsi, 96(%rsp) movq %r9, 104(%rsp) movq 272(%rsp), %rax movq 280(%rsp), %rcx movq 288(%rsp), %rdx movq 296(%rsp), %rsi movq 304(%rsp), %rdi movq $4503599627370458, %r8 movq $4503599627370494, %r9 addq %r8, %rax addq %r9, %rcx addq %r9, %rdx addq %r9, %rsi addq %r9, %rdi subq 232(%rsp), %rax subq 240(%rsp), %rcx subq 248(%rsp), %rdx subq 256(%rsp), %rsi subq 264(%rsp), %rdi movq %rax, 232(%rsp) movq %rcx, 240(%rsp) movq %rdx, 248(%rsp) movq %rsi, 256(%rsp) movq %rdi, 264(%rsp) movq 352(%rsp), %rax mulq 352(%rsp) movq %rax, %rcx movq %rdx, %r8 movq 352(%rsp), %rax shlq $1, %rax mulq 360(%rsp) movq %rax, %r9 movq %rdx, %r11 movq 352(%rsp), %rax shlq $1, %rax mulq 368(%rsp) movq %rax, %rdi movq %rdx, %r10 movq 352(%rsp), %rax shlq $1, %rax mulq 376(%rsp) movq %rax, %rbx movq %rdx, %rbp movq 352(%rsp), %rax shlq $1, %rax mulq 384(%rsp) movq %rax, %r12 movq %rdx, %rsi movq 360(%rsp), %rax mulq 360(%rsp) addq %rax, %rdi adcq %rdx, %r10 movq 360(%rsp), %rax shlq $1, %rax mulq 368(%rsp) addq %rax, %rbx adcq %rdx, %rbp movq 360(%rsp), %rax shlq $1, %rax mulq 376(%rsp) addq %rax, %r12 adcq %rdx, %rsi movq 360(%rsp), %rax imulq $38, %rax, %rax mulq 384(%rsp) addq %rax, %rcx adcq %rdx, %r8 movq 368(%rsp), %rax mulq 368(%rsp) addq %rax, %r12 adcq %rdx, %rsi movq 368(%rsp), %rax imulq $38, %rax, %rax mulq 376(%rsp) addq %rax, %rcx adcq %rdx, %r8 movq 368(%rsp), %rax imulq $38, %rax, %rax mulq 384(%rsp) addq %rax, %r9 adcq %rdx, %r11 movq 376(%rsp), %rax imulq $19, %rax, %rax mulq 376(%rsp) addq %rax, %r9 adcq %rdx, %r11 movq 376(%rsp), %rax imulq $38, %rax, %rax mulq 384(%rsp) addq %rax, %rdi adcq %rdx, %r10 movq 384(%rsp), %rax imulq $19, %rax, %rax mulq 384(%rsp) addq %rax, %rbx adcq %rdx, %rbp movq $2251799813685247, %rax shldq $13, %rcx, %r8 andq %rax, %rcx shldq $13, %r9, %r11 andq %rax, %r9 addq %r8, %r9 shldq $13, %rdi, %r10 andq %rax, %rdi addq %r11, %rdi shldq $13, %rbx, %rbp andq %rax, %rbx addq %r10, %rbx shldq $13, %r12, %rsi andq %rax, %r12 addq %rbp, %r12 imulq $19, %rsi, %rdx addq %rdx, %rcx movq %rcx, %rdx shrq $51, %rdx addq %r9, %rdx andq %rax, %rcx movq %rdx, %rsi shrq $51, %rdx addq %rdi, %rdx andq %rax, %rsi movq %rdx, %rdi shrq $51, %rdx addq %rbx, %rdx andq %rax, %rdi movq %rdx, %r8 shrq $51, %rdx addq %r12, %rdx andq %rax, %r8 movq %rdx, %r9 shrq $51, %rdx imulq $19, %rdx, %rdx addq %rdx, %rcx andq %rax, %r9 movq %rcx, 352(%rsp) movq %rsi, 360(%rsp) movq %rdi, 368(%rsp) movq %r8, 376(%rsp) movq %r9, 384(%rsp) movq $996679680, %rcx movq 232(%rsp), %rax mulq %rcx shrq $13, %rax movq %rax, %rsi movq %rdx, %rdi movq 240(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %rdi movq %rdx, %r8 movq 248(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %r8 movq %rdx, %r9 movq 256(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %r9 movq %rdx, %r10 movq 264(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %r10 imulq $19, %rdx, %rax addq %rax, %rsi addq 272(%rsp), %rsi addq 280(%rsp), %rdi addq 288(%rsp), %r8 addq 296(%rsp), %r9 addq 304(%rsp), %r10 movq %rsi, 272(%rsp) movq %rdi, 280(%rsp) movq %r8, 288(%rsp) movq %r9, 296(%rsp) movq %r10, 304(%rsp) movq 392(%rsp), %rax mulq 392(%rsp) movq %rax, %rsi movq %rdx, %r10 movq 392(%rsp), %rax shlq $1, %rax mulq 400(%rsp) movq %rax, %rbx movq %rdx, %rcx movq 392(%rsp), %rax shlq $1, %rax mulq 408(%rsp) movq %rax, %r11 movq %rdx, %rbp movq 392(%rsp), %rax shlq $1, %rax mulq 416(%rsp) movq %rax, %r12 movq %rdx, %r9 movq 392(%rsp), %rax shlq $1, %rax mulq 424(%rsp) movq %rax, %rdi movq %rdx, %r8 movq 400(%rsp), %rax mulq 400(%rsp) addq %rax, %r11 adcq %rdx, %rbp movq 400(%rsp), %rax shlq $1, %rax mulq 408(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 400(%rsp), %rax shlq $1, %rax mulq 416(%rsp) addq %rax, %rdi adcq %rdx, %r8 movq 400(%rsp), %rax imulq $38, %rax, %rax mulq 424(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 408(%rsp), %rax mulq 408(%rsp) addq %rax, %rdi adcq %rdx, %r8 movq 408(%rsp), %rax imulq $38, %rax, %rax mulq 416(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 408(%rsp), %rax imulq $38, %rax, %rax mulq 424(%rsp) addq %rax, %rbx adcq %rdx, %rcx movq 416(%rsp), %rax imulq $19, %rax, %rax mulq 416(%rsp) addq %rax, %rbx adcq %rdx, %rcx movq 416(%rsp), %rax imulq $38, %rax, %rax mulq 424(%rsp) addq %rax, %r11 adcq %rdx, %rbp movq 424(%rsp), %rax imulq $19, %rax, %rax mulq 424(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq $2251799813685247, %rax shldq $13, %rsi, %r10 andq %rax, %rsi shldq $13, %rbx, %rcx andq %rax, %rbx addq %r10, %rbx shldq $13, %r11, %rbp andq %rax, %r11 addq %rcx, %r11 shldq $13, %r12, %r9 andq %rax, %r12 addq %rbp, %r12 shldq $13, %rdi, %r8 andq %rax, %rdi addq %r9, %rdi imulq $19, %r8, %rcx addq %rcx, %rsi movq %rsi, %rcx shrq $51, %rcx addq %rbx, %rcx andq %rax, %rsi movq %rcx, %rdx shrq $51, %rcx addq %r11, %rcx andq %rax, %rdx movq %rcx, %r8 shrq $51, %rcx addq %r12, %rcx andq %rax, %r8 movq %rcx, %r9 shrq $51, %rcx addq %rdi, %rcx andq %rax, %r9 movq %rcx, %rdi shrq $51, %rcx imulq $19, %rcx, %rcx addq %rcx, %rsi andq %rax, %rdi movq %rsi, 112(%rsp) movq %rdx, 120(%rsp) movq %r8, 128(%rsp) movq %r9, 136(%rsp) movq %rdi, 144(%rsp) movq 216(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 368(%rsp) movq %rax, %r9 movq %rdx, %rsi movq 224(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 360(%rsp) addq %rax, %r9 adcq %rdx, %rsi movq 192(%rsp), %rax mulq 352(%rsp) addq %rax, %r9 adcq %rdx, %rsi movq 192(%rsp), %rax mulq 360(%rsp) movq %rax, %r10 movq %rdx, %rcx movq 192(%rsp), %rax mulq 368(%rsp) movq %rax, %rbx movq %rdx, %r12 movq 192(%rsp), %rax mulq 376(%rsp) movq %rax, %rdi movq %rdx, %rbp movq 192(%rsp), %rax mulq 384(%rsp) movq %rax, %r8 movq %rdx, %r11 movq 200(%rsp), %rax mulq 352(%rsp) addq %rax, %r10 adcq %rdx, %rcx movq 200(%rsp), %rax mulq 360(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 200(%rsp), %rax mulq 368(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq 200(%rsp), %rax mulq 376(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 200(%rsp), %rax imulq $19, %rax, %rax mulq 384(%rsp) addq %rax, %r9 adcq %rdx, %rsi movq 208(%rsp), %rax mulq 352(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 208(%rsp), %rax mulq 360(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq 208(%rsp), %rax mulq 368(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 208(%rsp), %rax imulq $19, %rax, %rax mulq 376(%rsp) addq %rax, %r9 adcq %rdx, %rsi movq 208(%rsp), %rax imulq $19, %rax, %rax mulq 384(%rsp) addq %rax, %r10 adcq %rdx, %rcx movq 216(%rsp), %rax mulq 352(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq 216(%rsp), %rax mulq 360(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 32(%rsp), %rax mulq 376(%rsp) addq %rax, %r10 adcq %rdx, %rcx movq 32(%rsp), %rax mulq 384(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 224(%rsp), %rax mulq 352(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 24(%rsp), %rax mulq 368(%rsp) addq %rax, %r10 adcq %rdx, %rcx movq 24(%rsp), %rax mulq 376(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 24(%rsp), %rax mulq 384(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq $2251799813685247, %rax shldq $13, %r9, %rsi andq %rax, %r9 shldq $13, %r10, %rcx andq %rax, %r10 addq %rsi, %r10 shldq $13, %rbx, %r12 andq %rax, %rbx addq %rcx, %rbx shldq $13, %rdi, %rbp andq %rax, %rdi addq %r12, %rdi shldq $13, %r8, %r11 andq %rax, %r8 addq %rbp, %r8 imulq $19, %r11, %rcx addq %rcx, %r9 movq %r9, %rcx shrq $51, %rcx addq %r10, %rcx movq %rcx, %rdx shrq $51, %rcx andq %rax, %r9 addq %rbx, %rcx movq %rcx, %rsi shrq $51, %rcx andq %rax, %rdx addq %rdi, %rcx movq %rcx, %rdi shrq $51, %rcx andq %rax, %rsi addq %r8, %rcx movq %rcx, %r8 shrq $51, %rcx andq %rax, %rdi imulq $19, %rcx, %rcx addq %rcx, %r9 andq %rax, %r8 movq %r9, 152(%rsp) movq %rdx, 160(%rsp) movq %rsi, 168(%rsp) movq %rdi, 176(%rsp) movq %r8, 184(%rsp) movq 256(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 288(%rsp) movq %rax, %rbx movq %rdx, %r12 movq 264(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 280(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 232(%rsp), %rax mulq 272(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 232(%rsp), %rax mulq 280(%rsp) movq %rax, %r11 movq %rdx, %rsi movq 232(%rsp), %rax mulq 288(%rsp) movq %rax, %r8 movq %rdx, %r9 movq 232(%rsp), %rax mulq 296(%rsp) movq %rax, %rcx movq %rdx, %rdi movq 232(%rsp), %rax mulq 304(%rsp) movq %rax, %r10 movq %rdx, %rbp movq 240(%rsp), %rax mulq 272(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 240(%rsp), %rax mulq 280(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 240(%rsp), %rax mulq 288(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 240(%rsp), %rax mulq 296(%rsp) addq %rax, %r10 adcq %rdx, %rbp movq 240(%rsp), %rax imulq $19, %rax, %rax mulq 304(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 248(%rsp), %rax mulq 272(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 248(%rsp), %rax mulq 280(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 248(%rsp), %rax mulq 288(%rsp) addq %rax, %r10 adcq %rdx, %rbp movq 248(%rsp), %rax imulq $19, %rax, %rax mulq 296(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 248(%rsp), %rax imulq $19, %rax, %rax mulq 304(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 256(%rsp), %rax mulq 272(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 256(%rsp), %rax mulq 280(%rsp) addq %rax, %r10 adcq %rdx, %rbp movq 24(%rsp), %rax mulq 296(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 24(%rsp), %rax mulq 304(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 264(%rsp), %rax mulq 272(%rsp) addq %rax, %r10 adcq %rdx, %rbp movq 32(%rsp), %rax mulq 288(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 32(%rsp), %rax mulq 296(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 32(%rsp), %rax mulq 304(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq $2251799813685247, %r13 shldq $13, %rbx, %r12 andq %r13, %rbx shldq $13, %r11, %rsi andq %r13, %r11 addq %r12, %r11 shldq $13, %r8, %r9 andq %r13, %r8 addq %rsi, %r8 shldq $13, %rcx, %rdi andq %r13, %rcx addq %r9, %rcx shldq $13, %r10, %rbp andq %r13, %r10 addq %rdi, %r10 imulq $19, %rbp, %rax addq %rax, %rbx movq %rbx, %r9 shrq $51, %r9 addq %r11, %r9 movq %r9, %rax shrq $51, %r9 andq %r13, %rbx addq %r8, %r9 movq %r9, %rdx shrq $51, %r9 andq %r13, %rax addq %rcx, %r9 movq %r9, %rsi shrq $51, %r9 andq %r13, %rdx addq %r10, %r9 movq %r9, %rdi shrq $51, %r9 andq %r13, %rsi imulq $19, %r9, %rcx addq %rcx, %rbx andq %r13, %rdi movq 16(%rsp), %rcx cmpq $0, %rcx jnbe Ljade_scalarmult_curve25519_amd64_ref5$28 movq %rbx, 152(%rsp) movq %rax, 160(%rsp) movq %rdx, 168(%rsp) movq %rsi, 176(%rsp) movq %rdi, 184(%rsp) movq 152(%rsp), %rax movq %rax, 112(%rsp) movq 160(%rsp), %rax movq %rax, 120(%rsp) movq 168(%rsp), %rax movq %rax, 128(%rsp) movq 176(%rsp), %rax movq %rax, 136(%rsp) movq 184(%rsp), %rax movq %rax, 144(%rsp) leaq 112(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$27(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$27: leaq 8(%rsp), %rsp movq 112(%rsp), %rax movq %rax, 192(%rsp) movq 120(%rsp), %rax movq %rax, 200(%rsp) movq 128(%rsp), %rax movq %rax, 208(%rsp) movq 136(%rsp), %rax movq %rax, 216(%rsp) movq 144(%rsp), %rax movq %rax, 224(%rsp) leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$26(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$26: leaq 8(%rsp), %rsp leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$25(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$25: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$24(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$24: leaq 24(%rsp), %rsp leaq 112(%rsp), %r9 leaq 192(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$23(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$23: leaq 24(%rsp), %rsp movq 112(%rsp), %rax movq %rax, 152(%rsp) movq 120(%rsp), %rax movq %rax, 160(%rsp) movq 128(%rsp), %rax movq %rax, 168(%rsp) movq 136(%rsp), %rax movq %rax, 176(%rsp) movq 144(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$22(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$22: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$21(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$21: leaq 24(%rsp), %rsp movq 192(%rsp), %rax movq %rax, 152(%rsp) movq 200(%rsp), %rax movq %rax, 160(%rsp) movq 208(%rsp), %rax movq %rax, 168(%rsp) movq 216(%rsp), %rax movq %rax, 176(%rsp) movq 224(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$20(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$20: leaq 8(%rsp), %rsp movl $4, %r13d leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$19(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$19: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$18(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$18: leaq 24(%rsp), %rsp movl $10, %r13d movq 192(%rsp), %rax movq %rax, 152(%rsp) movq 200(%rsp), %rax movq %rax, 160(%rsp) movq 208(%rsp), %rax movq %rax, 168(%rsp) movq 216(%rsp), %rax movq %rax, 176(%rsp) movq 224(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$17(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$17: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 192(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$16(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$16: leaq 24(%rsp), %rsp movl $20, %r13d movq 152(%rsp), %rax movq %rax, 272(%rsp) movq 160(%rsp), %rax movq %rax, 280(%rsp) movq 168(%rsp), %rax movq %rax, 288(%rsp) movq 176(%rsp), %rax movq %rax, 296(%rsp) movq 184(%rsp), %rax movq %rax, 304(%rsp) leaq 272(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$15(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$15: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 272(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$14(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$14: leaq 24(%rsp), %rsp movl $10, %r13d leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$13(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$13: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$12(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$12: leaq 24(%rsp), %rsp movl $50, %r13d movq 192(%rsp), %rax movq %rax, 152(%rsp) movq 200(%rsp), %rax movq %rax, 160(%rsp) movq 208(%rsp), %rax movq %rax, 168(%rsp) movq 216(%rsp), %rax movq %rax, 176(%rsp) movq 224(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$11(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$11: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 192(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$10(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$10: leaq 24(%rsp), %rsp movl $100, %r13d movq 152(%rsp), %rax movq %rax, 272(%rsp) movq 160(%rsp), %rax movq %rax, 280(%rsp) movq 168(%rsp), %rax movq %rax, 288(%rsp) movq 176(%rsp), %rax movq %rax, 296(%rsp) movq 184(%rsp), %rax movq %rax, 304(%rsp) leaq 272(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$9(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$9: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 272(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$8(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$8: leaq 24(%rsp), %rsp movl $50, %r13d leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$7(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$7: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$6(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$6: leaq 24(%rsp), %rsp movl $4, %r13d leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$5(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$5: leaq 8(%rsp), %rsp leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$4(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$4: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 112(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$3(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$3: leaq 24(%rsp), %rsp movq 96(%rsp), %rax imulq $19, %rax, %rax movq %rax, 8(%rsp) mulq 208(%rsp) movq %rax, %r10 movq %rdx, %rsi movq 104(%rsp), %rax imulq $19, %rax, %rax movq %rax, 16(%rsp) mulq 200(%rsp) addq %rax, %r10 adcq %rdx, %rsi movq 72(%rsp), %rax mulq 192(%rsp) addq %rax, %r10 adcq %rdx, %rsi movq 72(%rsp), %rax mulq 200(%rsp) movq %rax, %rbp movq %rdx, %rdi movq 72(%rsp), %rax mulq 208(%rsp) movq %rax, %rcx movq %rdx, %r12 movq 72(%rsp), %rax mulq 216(%rsp) movq %rax, %r9 movq %rdx, %r11 movq 72(%rsp), %rax mulq 224(%rsp) movq %rax, %r8 movq %rdx, %rbx movq 80(%rsp), %rax mulq 192(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 80(%rsp), %rax mulq 200(%rsp) addq %rax, %rcx adcq %rdx, %r12 movq 80(%rsp), %rax mulq 208(%rsp) addq %rax, %r9 adcq %rdx, %r11 movq 80(%rsp), %rax mulq 216(%rsp) addq %rax, %r8 adcq %rdx, %rbx movq 80(%rsp), %rax imulq $19, %rax, %rax mulq 224(%rsp) addq %rax, %r10 adcq %rdx, %rsi movq 88(%rsp), %rax mulq 192(%rsp) addq %rax, %rcx adcq %rdx, %r12 movq 88(%rsp), %rax mulq 200(%rsp) addq %rax, %r9 adcq %rdx, %r11 movq 88(%rsp), %rax mulq 208(%rsp) addq %rax, %r8 adcq %rdx, %rbx movq 88(%rsp), %rax imulq $19, %rax, %rax mulq 216(%rsp) addq %rax, %r10 adcq %rdx, %rsi movq 88(%rsp), %rax imulq $19, %rax, %rax mulq 224(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 96(%rsp), %rax mulq 192(%rsp) addq %rax, %r9 adcq %rdx, %r11 movq 96(%rsp), %rax mulq 200(%rsp) addq %rax, %r8 adcq %rdx, %rbx movq 8(%rsp), %rax mulq 216(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 8(%rsp), %rax mulq 224(%rsp) addq %rax, %rcx adcq %rdx, %r12 movq 104(%rsp), %rax mulq 192(%rsp) addq %rax, %r8 adcq %rdx, %rbx movq 16(%rsp), %rax mulq 208(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 16(%rsp), %rax mulq 216(%rsp) addq %rax, %rcx adcq %rdx, %r12 movq 16(%rsp), %rax mulq 224(%rsp) addq %rax, %r9 adcq %rdx, %r11 movq $2251799813685247, %rax shldq $13, %r10, %rsi andq %rax, %r10 shldq $13, %rbp, %rdi andq %rax, %rbp addq %rsi, %rbp shldq $13, %rcx, %r12 andq %rax, %rcx addq %rdi, %rcx shldq $13, %r9, %r11 andq %rax, %r9 addq %r12, %r9 shldq $13, %r8, %rbx andq %rax, %r8 addq %r11, %r8 imulq $19, %rbx, %rdx addq %rdx, %r10 movq %r10, %r11 shrq $51, %r11 addq %rbp, %r11 movq %r11, %rdx shrq $51, %r11 andq %rax, %r10 addq %rcx, %r11 movq %r11, %rcx shrq $51, %r11 andq %rax, %rdx addq %r9, %r11 movq %r11, %rsi shrq $51, %r11 andq %rax, %rcx addq %r8, %r11 movq %r11, %rdi shrq $51, %r11 andq %rax, %rsi imulq $19, %r11, %r8 addq %r8, %r10 andq %rax, %rdi movq $2251799813685247, %rax movq %rax, %r8 addq $-18, %r8 movq $3, %r9 jmp Ljade_scalarmult_curve25519_amd64_ref5$1 Ljade_scalarmult_curve25519_amd64_ref5$2: movq %r10, %r11 shrq $51, %r11 andq %rax, %r10 addq %r11, %rdx movq %rdx, %r11 shrq $51, %r11 andq %rax, %rdx addq %r11, %rcx movq %rcx, %r11 shrq $51, %r11 andq %rax, %rcx addq %r11, %rsi movq %rsi, %r11 shrq $51, %r11 andq %rax, %rsi addq %r11, %rdi movq %rdi, %r11 shrq $51, %r11 andq %rax, %rdi imulq $19, %r11, %r11 addq %r11, %r10 addq $-1, %r9 Ljade_scalarmult_curve25519_amd64_ref5$1: cmpq $0, %r9 jnbe Ljade_scalarmult_curve25519_amd64_ref5$2 movq $1, %r11 cmpq %r8, %r10 cmovl %r9, %r11 cmpq %rax, %rdx cmovne %r9, %r11 cmpq %rax, %rcx cmovne %r9, %r11 cmpq %rax, %rsi cmovne %r9, %r11 cmpq %rax, %rdi cmovne %r9, %r11 negq %r11 andq %r11, %rax andq %r11, %r8 subq %r8, %r10 subq %rax, %rdx subq %rax, %rcx subq %rax, %rsi subq %rax, %rdi movq %rdx, %rax shlq $51, %rax orq %r10, %rax movq %rcx, %r8 shlq $38, %r8 shrq $13, %rdx orq %rdx, %r8 movq %rsi, %rdx shlq $25, %rdx shrq $26, %rcx orq %rcx, %rdx shlq $12, %rdi shrq $39, %rsi orq %rsi, %rdi movq (%rsp), %rcx movq %rax, (%rcx) movq %r8, 8(%rcx) movq %rdx, 16(%rcx) movq %rdi, 24(%rcx) xorq %rax, %rax movq 432(%rsp), %rbx movq 440(%rsp), %rbp movq 448(%rsp), %r12 movq 456(%rsp), %r13 movq 464(%rsp), %r14 movq 472(%rsp), %rsp ret L_it_sqr5_p$1: L_it_sqr5_p$2: leaq -8(%rsp), %rsp leaq L_it_sqr5_p$3(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 L_it_sqr5_p$3: leaq 8(%rsp), %rsp decl %r13d jne L_it_sqr5_p$2 jmp *(%rsp) L_sqr5_p$1: movq (%rdi), %rax mulq (%rdi) movq %rax, %r8 movq %rdx, %rsi movq (%rdi), %rax shlq $1, %rax mulq 8(%rdi) movq %rax, %rbx movq %rdx, %r11 movq (%rdi), %rax shlq $1, %rax mulq 16(%rdi) movq %rax, %r10 movq %rdx, %r14 movq (%rdi), %rax shlq $1, %rax mulq 24(%rdi) movq %rax, %rbp movq %rdx, %r12 movq (%rdi), %rax shlq $1, %rax mulq 32(%rdi) movq %rax, %rcx movq %rdx, %r9 movq 8(%rdi), %rax mulq 8(%rdi) addq %rax, %r10 adcq %rdx, %r14 movq 8(%rdi), %rax shlq $1, %rax mulq 16(%rdi) addq %rax, %rbp adcq %rdx, %r12 movq 8(%rdi), %rax shlq $1, %rax mulq 24(%rdi) addq %rax, %rcx adcq %rdx, %r9 movq 8(%rdi), %rax imulq $38, %rax, %rax mulq 32(%rdi) addq %rax, %r8 adcq %rdx, %rsi movq 16(%rdi), %rax mulq 16(%rdi) addq %rax, %rcx adcq %rdx, %r9 movq 16(%rdi), %rax imulq $38, %rax, %rax mulq 24(%rdi) addq %rax, %r8 adcq %rdx, %rsi movq 16(%rdi), %rax imulq $38, %rax, %rax mulq 32(%rdi) addq %rax, %rbx adcq %rdx, %r11 movq 24(%rdi), %rax imulq $19, %rax, %rax mulq 24(%rdi) addq %rax, %rbx adcq %rdx, %r11 movq 24(%rdi), %rax imulq $38, %rax, %rax mulq 32(%rdi) addq %rax, %r10 adcq %rdx, %r14 movq 32(%rdi), %rax imulq $19, %rax, %rax mulq 32(%rdi) addq %rax, %rbp adcq %rdx, %r12 movq $2251799813685247, %rax shldq $13, %r8, %rsi andq %rax, %r8 shldq $13, %rbx, %r11 andq %rax, %rbx addq %rsi, %rbx shldq $13, %r10, %r14 andq %rax, %r10 addq %r11, %r10 shldq $13, %rbp, %r12 andq %rax, %rbp addq %r14, %rbp shldq $13, %rcx, %r9 andq %rax, %rcx addq %r12, %rcx imulq $19, %r9, %rdx addq %rdx, %r8 movq %r8, %rdx shrq $51, %rdx addq %rbx, %rdx andq %rax, %r8 movq %rdx, %rsi shrq $51, %rdx addq %r10, %rdx andq %rax, %rsi movq %rdx, %r9 shrq $51, %rdx addq %rbp, %rdx andq %rax, %r9 movq %rdx, %r10 shrq $51, %rdx addq %rcx, %rdx andq %rax, %r10 movq %rdx, %rcx shrq $51, %rdx imulq $19, %rdx, %rdx addq %rdx, %r8 andq %rax, %rcx movq %r8, (%rdi) movq %rsi, 8(%rdi) movq %r9, 16(%rdi) movq %r10, 24(%rdi) movq %rcx, 32(%rdi) jmp *(%rsp) L_mul5_pp$1: movq 24(%r9), %rax imulq $19, %rax, %rax movq %rax, (%rsp) mulq 16(%rbp) movq %rax, %rdi movq %rdx, %r8 movq 32(%r9), %rax imulq $19, %rax, %rax movq %rax, 8(%rsp) mulq 8(%rbp) addq %rax, %rdi adcq %rdx, %r8 movq (%r9), %rax mulq (%rbp) addq %rax, %rdi adcq %rdx, %r8 movq (%r9), %rax mulq 8(%rbp) movq %rax, %rbx movq %rdx, %r14 movq (%r9), %rax mulq 16(%rbp) movq %rax, %r11 movq %rdx, %rcx movq (%r9), %rax mulq 24(%rbp) movq %rax, %r10 movq %rdx, %r12 movq (%r9), %rax mulq 32(%rbp) movq %rax, %rsi movq %rdx, %r13 movq 8(%r9), %rax mulq (%rbp) addq %rax, %rbx adcq %rdx, %r14 movq 8(%r9), %rax mulq 8(%rbp) addq %rax, %r11 adcq %rdx, %rcx movq 8(%r9), %rax mulq 16(%rbp) addq %rax, %r10 adcq %rdx, %r12 movq 8(%r9), %rax mulq 24(%rbp) addq %rax, %rsi adcq %rdx, %r13 movq 8(%r9), %rax imulq $19, %rax, %rax mulq 32(%rbp) addq %rax, %rdi adcq %rdx, %r8 movq 16(%r9), %rax mulq (%rbp) addq %rax, %r11 adcq %rdx, %rcx movq 16(%r9), %rax mulq 8(%rbp) addq %rax, %r10 adcq %rdx, %r12 movq 16(%r9), %rax mulq 16(%rbp) addq %rax, %rsi adcq %rdx, %r13 movq 16(%r9), %rax imulq $19, %rax, %rax mulq 24(%rbp) addq %rax, %rdi adcq %rdx, %r8 movq 16(%r9), %rax imulq $19, %rax, %rax mulq 32(%rbp) addq %rax, %rbx adcq %rdx, %r14 movq 24(%r9), %rax mulq (%rbp) addq %rax, %r10 adcq %rdx, %r12 movq 24(%r9), %rax mulq 8(%rbp) addq %rax, %rsi adcq %rdx, %r13 movq (%rsp), %rax mulq 24(%rbp) addq %rax, %rbx adcq %rdx, %r14 movq (%rsp), %rax mulq 32(%rbp) addq %rax, %r11 adcq %rdx, %rcx movq 32(%r9), %rax mulq (%rbp) addq %rax, %rsi adcq %rdx, %r13 movq 8(%rsp), %rax mulq 16(%rbp) addq %rax, %rbx adcq %rdx, %r14 movq 8(%rsp), %rax mulq 24(%rbp) addq %rax, %r11 adcq %rdx, %rcx movq 8(%rsp), %rax mulq 32(%rbp) addq %rax, %r10 adcq %rdx, %r12 movq $2251799813685247, %rax shldq $13, %rdi, %r8 andq %rax, %rdi shldq $13, %rbx, %r14 andq %rax, %rbx addq %r8, %rbx shldq $13, %r11, %rcx andq %rax, %r11 addq %r14, %r11 shldq $13, %r10, %r12 andq %rax, %r10 addq %rcx, %r10 shldq $13, %rsi, %r13 andq %rax, %rsi addq %r12, %rsi imulq $19, %r13, %rcx addq %rcx, %rdi movq %rdi, %rcx shrq $51, %rcx addq %rbx, %rcx movq %rcx, %rdx shrq $51, %rcx andq %rax, %rdi addq %r11, %rcx movq %rcx, %r8 shrq $51, %rcx andq %rax, %rdx addq %r10, %rcx movq %rcx, %r10 shrq $51, %rcx andq %rax, %r8 addq %rsi, %rcx movq %rcx, %rsi shrq $51, %rcx andq %rax, %r10 imulq $19, %rcx, %rcx addq %rcx, %rdi andq %rax, %rsi movq %rdi, (%r9) movq %rdx, 8(%r9) movq %r8, 16(%r9) movq %r10, 24(%r9) movq %rsi, 32(%r9) jmp *16(%rsp)
usenix-security-verdict/verdict
60,313
deps/libcrux/sys/libjade/jazz/chacha20_avx.s
.att_syntax .text .p2align 5 .globl _jade_stream_chacha_chacha20_ietf_amd64_avx .globl jade_stream_chacha_chacha20_ietf_amd64_avx .globl _jade_stream_chacha_chacha20_ietf_amd64_avx_xor .globl jade_stream_chacha_chacha20_ietf_amd64_avx_xor _jade_stream_chacha_chacha20_ietf_amd64_avx: jade_stream_chacha_chacha20_ietf_amd64_avx: movq %rsp, %r10 leaq -592(%rsp), %rsp andq $-16, %rsp cmpq $129, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$1 vmovdqu glob_data + 64(%rip), %xmm0 vmovdqu glob_data + 48(%rip), %xmm1 vmovdqu %xmm0, (%rsp) vmovdqu %xmm1, 16(%rsp) vmovdqu glob_data + 112(%rip), %xmm0 vmovdqu glob_data + 128(%rip), %xmm1 vmovdqu glob_data + 144(%rip), %xmm2 vmovdqu glob_data + 160(%rip), %xmm3 vpbroadcastd (%rcx), %xmm4 vpbroadcastd 4(%rcx), %xmm5 vpbroadcastd 8(%rcx), %xmm6 vpbroadcastd 12(%rcx), %xmm7 vpbroadcastd 16(%rcx), %xmm8 vpbroadcastd 20(%rcx), %xmm9 vpbroadcastd 24(%rcx), %xmm10 vpbroadcastd 28(%rcx), %xmm11 vmovdqu glob_data + 96(%rip), %xmm12 vpbroadcastd (%rdx), %xmm13 vpbroadcastd 4(%rdx), %xmm14 vpbroadcastd 8(%rdx), %xmm15 vmovdqu %xmm0, 336(%rsp) vmovdqu %xmm1, 352(%rsp) vmovdqu %xmm2, 368(%rsp) vmovdqu %xmm3, 384(%rsp) vmovdqu %xmm4, 400(%rsp) vmovdqu %xmm5, 416(%rsp) vmovdqu %xmm6, 432(%rsp) vmovdqu %xmm7, 448(%rsp) vmovdqu %xmm8, 464(%rsp) vmovdqu %xmm9, 480(%rsp) vmovdqu %xmm10, 496(%rsp) vmovdqu %xmm11, 512(%rsp) vmovdqu %xmm12, 528(%rsp) vmovdqu %xmm13, 544(%rsp) vmovdqu %xmm14, 560(%rsp) vmovdqu %xmm15, 576(%rsp) jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$29 Ljade_stream_chacha_chacha20_ietf_amd64_avx$30: vmovdqu 336(%rsp), %xmm0 vmovdqu 352(%rsp), %xmm1 vmovdqu 368(%rsp), %xmm2 vmovdqu 384(%rsp), %xmm3 vmovdqu 400(%rsp), %xmm4 vmovdqu 416(%rsp), %xmm5 vmovdqu 432(%rsp), %xmm6 vmovdqu 448(%rsp), %xmm7 vmovdqu 464(%rsp), %xmm8 vmovdqu 480(%rsp), %xmm9 vmovdqu 496(%rsp), %xmm10 vmovdqu 512(%rsp), %xmm11 vmovdqu 528(%rsp), %xmm12 vmovdqu 544(%rsp), %xmm13 vmovdqu 560(%rsp), %xmm14 vmovdqu 576(%rsp), %xmm15 vmovdqu %xmm15, 32(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx$31: vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vmovdqu %xmm14, 48(%rsp) vmovdqu 32(%rsp), %xmm14 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vmovdqu %xmm14, 64(%rsp) vmovdqu 48(%rsp), %xmm14 vmovdqu %xmm14, 48(%rsp) vmovdqu 64(%rsp), %xmm14 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vmovdqu %xmm14, 32(%rsp) vmovdqu 48(%rsp), %xmm14 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$31 vmovdqu 32(%rsp), %xmm15 vpaddd 336(%rsp), %xmm0, %xmm0 vpaddd 352(%rsp), %xmm1, %xmm1 vpaddd 368(%rsp), %xmm2, %xmm2 vpaddd 384(%rsp), %xmm3, %xmm3 vpaddd 400(%rsp), %xmm4, %xmm4 vpaddd 416(%rsp), %xmm5, %xmm5 vpaddd 432(%rsp), %xmm6, %xmm6 vpaddd 448(%rsp), %xmm7, %xmm7 vpaddd 464(%rsp), %xmm8, %xmm8 vpaddd 480(%rsp), %xmm9, %xmm9 vpaddd 496(%rsp), %xmm10, %xmm10 vpaddd 512(%rsp), %xmm11, %xmm11 vpaddd 528(%rsp), %xmm12, %xmm12 vpaddd 544(%rsp), %xmm13, %xmm13 vpaddd 560(%rsp), %xmm14, %xmm14 vpaddd 576(%rsp), %xmm15, %xmm15 vmovdqu %xmm8, 80(%rsp) vmovdqu %xmm9, 96(%rsp) vmovdqu %xmm10, 112(%rsp) vmovdqu %xmm11, 128(%rsp) vmovdqu %xmm12, 144(%rsp) vmovdqu %xmm13, 160(%rsp) vmovdqu %xmm14, 176(%rsp) vmovdqu %xmm15, 192(%rsp) vpunpckldq %xmm1, %xmm0, %xmm8 vpunpckhdq %xmm1, %xmm0, %xmm0 vpunpckldq %xmm3, %xmm2, %xmm1 vpunpckhdq %xmm3, %xmm2, %xmm2 vpunpckldq %xmm5, %xmm4, %xmm3 vpunpckhdq %xmm5, %xmm4, %xmm4 vpunpckldq %xmm7, %xmm6, %xmm5 vpunpckhdq %xmm7, %xmm6, %xmm6 vpunpcklqdq %xmm1, %xmm8, %xmm7 vpunpcklqdq %xmm5, %xmm3, %xmm9 vpunpckhqdq %xmm1, %xmm8, %xmm1 vpunpckhqdq %xmm5, %xmm3, %xmm3 vpunpcklqdq %xmm2, %xmm0, %xmm5 vpunpcklqdq %xmm6, %xmm4, %xmm8 vpunpckhqdq %xmm2, %xmm0, %xmm0 vpunpckhqdq %xmm6, %xmm4, %xmm2 vmovdqu %xmm7, (%rdi) vmovdqu %xmm9, 16(%rdi) vmovdqu %xmm1, 64(%rdi) vmovdqu %xmm3, 80(%rdi) vmovdqu %xmm5, 128(%rdi) vmovdqu %xmm8, 144(%rdi) vmovdqu %xmm0, 192(%rdi) vmovdqu %xmm2, 208(%rdi) vmovdqu 80(%rsp), %xmm0 vmovdqu 112(%rsp), %xmm1 vmovdqu 144(%rsp), %xmm2 vmovdqu 176(%rsp), %xmm3 vpunpckldq 96(%rsp), %xmm0, %xmm4 vpunpckhdq 96(%rsp), %xmm0, %xmm0 vpunpckldq 128(%rsp), %xmm1, %xmm5 vpunpckhdq 128(%rsp), %xmm1, %xmm1 vpunpckldq 160(%rsp), %xmm2, %xmm6 vpunpckhdq 160(%rsp), %xmm2, %xmm2 vpunpckldq 192(%rsp), %xmm3, %xmm7 vpunpckhdq 192(%rsp), %xmm3, %xmm3 vpunpcklqdq %xmm5, %xmm4, %xmm8 vpunpcklqdq %xmm7, %xmm6, %xmm9 vpunpckhqdq %xmm5, %xmm4, %xmm4 vpunpckhqdq %xmm7, %xmm6, %xmm5 vpunpcklqdq %xmm1, %xmm0, %xmm6 vpunpcklqdq %xmm3, %xmm2, %xmm7 vpunpckhqdq %xmm1, %xmm0, %xmm0 vpunpckhqdq %xmm3, %xmm2, %xmm1 vmovdqu %xmm8, 32(%rdi) vmovdqu %xmm9, 48(%rdi) vmovdqu %xmm4, 96(%rdi) vmovdqu %xmm5, 112(%rdi) vmovdqu %xmm6, 160(%rdi) vmovdqu %xmm7, 176(%rdi) vmovdqu %xmm0, 224(%rdi) vmovdqu %xmm1, 240(%rdi) addq $256, %rdi addq $-256, %rsi vmovdqu glob_data + 0(%rip), %xmm0 vpaddd 528(%rsp), %xmm0, %xmm0 vmovdqu %xmm0, 528(%rsp) Ljade_stream_chacha_chacha20_ietf_amd64_avx$29: cmpq $256, %rsi jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx$30 cmpq $0, %rsi jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$2 vmovdqu 336(%rsp), %xmm0 vmovdqu 352(%rsp), %xmm1 vmovdqu 368(%rsp), %xmm2 vmovdqu 384(%rsp), %xmm3 vmovdqu 400(%rsp), %xmm4 vmovdqu 416(%rsp), %xmm5 vmovdqu 432(%rsp), %xmm6 vmovdqu 448(%rsp), %xmm7 vmovdqu 464(%rsp), %xmm8 vmovdqu 480(%rsp), %xmm9 vmovdqu 496(%rsp), %xmm10 vmovdqu 512(%rsp), %xmm11 vmovdqu 528(%rsp), %xmm12 vmovdqu 544(%rsp), %xmm13 vmovdqu 560(%rsp), %xmm14 vmovdqu 576(%rsp), %xmm15 vmovdqu %xmm15, 32(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx$28: vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vmovdqu %xmm14, 48(%rsp) vmovdqu 32(%rsp), %xmm14 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vmovdqu %xmm14, 64(%rsp) vmovdqu 48(%rsp), %xmm14 vmovdqu %xmm14, 48(%rsp) vmovdqu 64(%rsp), %xmm14 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vmovdqu %xmm14, 32(%rsp) vmovdqu 48(%rsp), %xmm14 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$28 vmovdqu 32(%rsp), %xmm15 vpaddd 336(%rsp), %xmm0, %xmm0 vpaddd 352(%rsp), %xmm1, %xmm1 vpaddd 368(%rsp), %xmm2, %xmm2 vpaddd 384(%rsp), %xmm3, %xmm3 vpaddd 400(%rsp), %xmm4, %xmm4 vpaddd 416(%rsp), %xmm5, %xmm5 vpaddd 432(%rsp), %xmm6, %xmm6 vpaddd 448(%rsp), %xmm7, %xmm7 vpaddd 464(%rsp), %xmm8, %xmm8 vpaddd 480(%rsp), %xmm9, %xmm9 vpaddd 496(%rsp), %xmm10, %xmm10 vpaddd 512(%rsp), %xmm11, %xmm11 vpaddd 528(%rsp), %xmm12, %xmm12 vpaddd 544(%rsp), %xmm13, %xmm13 vpaddd 560(%rsp), %xmm14, %xmm14 vpaddd 576(%rsp), %xmm15, %xmm15 vmovdqu %xmm8, 80(%rsp) vmovdqu %xmm9, 96(%rsp) vmovdqu %xmm10, 112(%rsp) vmovdqu %xmm11, 128(%rsp) vmovdqu %xmm12, 144(%rsp) vmovdqu %xmm13, 160(%rsp) vmovdqu %xmm14, 176(%rsp) vmovdqu %xmm15, 192(%rsp) vpunpckldq %xmm1, %xmm0, %xmm8 vpunpckhdq %xmm1, %xmm0, %xmm0 vpunpckldq %xmm3, %xmm2, %xmm1 vpunpckhdq %xmm3, %xmm2, %xmm2 vpunpckldq %xmm5, %xmm4, %xmm3 vpunpckhdq %xmm5, %xmm4, %xmm4 vpunpckldq %xmm7, %xmm6, %xmm5 vpunpckhdq %xmm7, %xmm6, %xmm6 vpunpcklqdq %xmm1, %xmm8, %xmm7 vpunpcklqdq %xmm5, %xmm3, %xmm9 vpunpckhqdq %xmm1, %xmm8, %xmm1 vpunpckhqdq %xmm5, %xmm3, %xmm3 vpunpcklqdq %xmm2, %xmm0, %xmm5 vpunpcklqdq %xmm6, %xmm4, %xmm8 vpunpckhqdq %xmm2, %xmm0, %xmm0 vpunpckhqdq %xmm6, %xmm4, %xmm2 vmovdqu %xmm7, 208(%rsp) vmovdqu %xmm9, 224(%rsp) vmovdqu %xmm1, 240(%rsp) vmovdqu %xmm3, 256(%rsp) vmovdqu %xmm5, 272(%rsp) vmovdqu %xmm8, 288(%rsp) vmovdqu %xmm0, 304(%rsp) vmovdqu %xmm2, 320(%rsp) vmovdqu 80(%rsp), %xmm0 vmovdqu 112(%rsp), %xmm1 vmovdqu 144(%rsp), %xmm2 vmovdqu 176(%rsp), %xmm3 vpunpckldq 96(%rsp), %xmm0, %xmm4 vpunpckhdq 96(%rsp), %xmm0, %xmm0 vpunpckldq 128(%rsp), %xmm1, %xmm5 vpunpckhdq 128(%rsp), %xmm1, %xmm1 vpunpckldq 160(%rsp), %xmm2, %xmm6 vpunpckhdq 160(%rsp), %xmm2, %xmm2 vpunpckldq 192(%rsp), %xmm3, %xmm7 vpunpckhdq 192(%rsp), %xmm3, %xmm3 vpunpcklqdq %xmm5, %xmm4, %xmm8 vpunpcklqdq %xmm7, %xmm6, %xmm9 vpunpckhqdq %xmm5, %xmm4, %xmm4 vpunpckhqdq %xmm7, %xmm6, %xmm5 vpunpcklqdq %xmm1, %xmm0, %xmm6 vpunpcklqdq %xmm3, %xmm2, %xmm7 vpunpckhqdq %xmm1, %xmm0, %xmm0 vpunpckhqdq %xmm3, %xmm2, %xmm1 vmovdqu 208(%rsp), %xmm13 vmovdqu 224(%rsp), %xmm12 vmovdqu %xmm8, %xmm11 vmovdqu %xmm9, %xmm10 vmovdqu 240(%rsp), %xmm9 vmovdqu 256(%rsp), %xmm8 vmovdqu %xmm4, %xmm3 vmovdqu %xmm5, %xmm2 cmpq $128, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$27 vmovdqu %xmm13, (%rdi) vmovdqu %xmm12, 16(%rdi) vmovdqu %xmm11, 32(%rdi) vmovdqu %xmm10, 48(%rdi) vmovdqu %xmm9, 64(%rdi) vmovdqu %xmm8, 80(%rdi) vmovdqu %xmm3, 96(%rdi) vmovdqu %xmm2, 112(%rdi) addq $128, %rdi addq $-128, %rsi vmovdqu 272(%rsp), %xmm13 vmovdqu 288(%rsp), %xmm12 vmovdqu %xmm6, %xmm11 vmovdqu %xmm7, %xmm10 vmovdqu 304(%rsp), %xmm9 vmovdqu 320(%rsp), %xmm8 vmovdqu %xmm0, %xmm3 vmovdqu %xmm1, %xmm2 Ljade_stream_chacha_chacha20_ietf_amd64_avx$27: cmpq $64, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$26 vmovdqu %xmm13, (%rdi) vmovdqu %xmm12, 16(%rdi) vmovdqu %xmm11, 32(%rdi) vmovdqu %xmm10, 48(%rdi) addq $64, %rdi addq $-64, %rsi vmovdqu %xmm9, %xmm13 vmovdqu %xmm8, %xmm12 vmovdqu %xmm3, %xmm11 vmovdqu %xmm2, %xmm10 Ljade_stream_chacha_chacha20_ietf_amd64_avx$26: cmpq $32, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$25 vmovdqu %xmm13, (%rdi) vmovdqu %xmm12, 16(%rdi) addq $32, %rdi addq $-32, %rsi vmovdqu %xmm11, %xmm13 vmovdqu %xmm10, %xmm12 Ljade_stream_chacha_chacha20_ietf_amd64_avx$25: cmpq $16, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$24 vmovdqu %xmm13, (%rdi) addq $16, %rdi addq $-16, %rsi vmovdqu %xmm12, %xmm13 Ljade_stream_chacha_chacha20_ietf_amd64_avx$24: vpextrq $0, %xmm13, %rax cmpq $8, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$21 movq %rax, (%rdi) addq $8, %rdi addq $-8, %rsi vpextrq $1, %xmm13, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx$23: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$21 Ljade_stream_chacha_chacha20_ietf_amd64_avx$22: movb %al, %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi addq $-1, %rsi Ljade_stream_chacha_chacha20_ietf_amd64_avx$21: cmpq $0, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$22 Ljade_stream_chacha_chacha20_ietf_amd64_avx$20: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx$1: vmovdqu glob_data + 64(%rip), %xmm0 vmovdqu glob_data + 48(%rip), %xmm1 vmovdqu glob_data + 208(%rip), %xmm2 vmovdqu (%rcx), %xmm3 vmovdqu 16(%rcx), %xmm4 vpxor %xmm5, %xmm5, %xmm5 vpinsrd $1, (%rdx), %xmm5, %xmm5 vpinsrq $1, 4(%rdx), %xmm5, %xmm5 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$17 Ljade_stream_chacha_chacha20_ietf_amd64_avx$18: vmovdqu %xmm2, %xmm6 vmovdqu %xmm3, %xmm7 vmovdqu %xmm4, %xmm8 vmovdqu %xmm5, %xmm9 vmovdqu %xmm2, %xmm10 vmovdqu %xmm3, %xmm11 vmovdqu %xmm4, %xmm12 vmovdqu %xmm5, %xmm13 vpaddd glob_data + 32(%rip), %xmm13, %xmm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx$19: vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $57, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $-109, %xmm9, %xmm9 vpshufd $57, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $-109, %xmm13, %xmm13 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $-109, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $57, %xmm9, %xmm9 vpshufd $-109, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $57, %xmm13, %xmm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$19 vpaddd %xmm2, %xmm6, %xmm6 vpaddd %xmm3, %xmm7, %xmm7 vpaddd %xmm4, %xmm8, %xmm8 vpaddd %xmm5, %xmm9, %xmm9 vpaddd %xmm2, %xmm10, %xmm10 vpaddd %xmm3, %xmm11, %xmm11 vpaddd %xmm4, %xmm12, %xmm12 vpaddd %xmm5, %xmm13, %xmm13 vpaddd glob_data + 32(%rip), %xmm13, %xmm13 vmovdqu %xmm6, (%rdi) vmovdqu %xmm7, 16(%rdi) vmovdqu %xmm8, 32(%rdi) vmovdqu %xmm9, 48(%rdi) vmovdqu %xmm10, 64(%rdi) vmovdqu %xmm11, 80(%rdi) vmovdqu %xmm12, 96(%rdi) vmovdqu %xmm13, 112(%rdi) addq $128, %rdi addq $-128, %rsi vpaddd glob_data + 16(%rip), %xmm5, %xmm5 Ljade_stream_chacha_chacha20_ietf_amd64_avx$17: cmpq $128, %rsi jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx$18 cmpq $64, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$3 vmovdqu %xmm2, %xmm6 vmovdqu %xmm3, %xmm7 vmovdqu %xmm4, %xmm8 vmovdqu %xmm5, %xmm9 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx$16: vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm0, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm10 vpsrld $20, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm1, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm10 vpsrld $25, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpshufd $57, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $-109, %xmm9, %xmm9 vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm0, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm10 vpsrld $20, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm1, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm10 vpsrld $25, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpshufd $-109, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $57, %xmm9, %xmm9 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$16 vpaddd %xmm2, %xmm6, %xmm6 vpaddd %xmm3, %xmm7, %xmm2 vpaddd %xmm4, %xmm8, %xmm0 vpaddd %xmm5, %xmm9, %xmm1 cmpq $32, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$15 vmovdqu %xmm6, (%rdi) vmovdqu %xmm2, 16(%rdi) addq $32, %rdi addq $-32, %rsi vmovdqu %xmm0, %xmm6 vmovdqu %xmm1, %xmm2 Ljade_stream_chacha_chacha20_ietf_amd64_avx$15: cmpq $16, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$14 vmovdqu %xmm6, (%rdi) addq $16, %rdi addq $-16, %rsi vmovdqu %xmm2, %xmm6 Ljade_stream_chacha_chacha20_ietf_amd64_avx$14: vpextrq $0, %xmm6, %rax cmpq $8, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$11 movq %rax, (%rdi) addq $8, %rdi addq $-8, %rsi vpextrq $1, %xmm6, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx$13: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$11 Ljade_stream_chacha_chacha20_ietf_amd64_avx$12: movb %al, %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi addq $-1, %rsi Ljade_stream_chacha_chacha20_ietf_amd64_avx$11: cmpq $0, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$12 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx$3: vmovdqu %xmm2, %xmm6 vmovdqu %xmm3, %xmm7 vmovdqu %xmm4, %xmm8 vmovdqu %xmm5, %xmm9 vmovdqu %xmm2, %xmm10 vmovdqu %xmm3, %xmm11 vmovdqu %xmm4, %xmm12 vmovdqu %xmm5, %xmm13 vpaddd glob_data + 32(%rip), %xmm13, %xmm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx$10: vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $57, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $-109, %xmm9, %xmm9 vpshufd $57, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $-109, %xmm13, %xmm13 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $-109, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $57, %xmm9, %xmm9 vpshufd $-109, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $57, %xmm13, %xmm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$10 vpaddd %xmm2, %xmm6, %xmm0 vpaddd %xmm3, %xmm7, %xmm1 vpaddd %xmm4, %xmm8, %xmm6 vpaddd %xmm5, %xmm9, %xmm7 vpaddd %xmm2, %xmm10, %xmm9 vpaddd %xmm3, %xmm11, %xmm8 vpaddd %xmm4, %xmm12, %xmm2 vpaddd %xmm5, %xmm13, %xmm3 vpaddd glob_data + 32(%rip), %xmm3, %xmm3 vmovdqu %xmm0, (%rdi) vmovdqu %xmm1, 16(%rdi) vmovdqu %xmm6, 32(%rdi) vmovdqu %xmm7, 48(%rdi) addq $64, %rdi addq $-64, %rsi cmpq $32, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$9 vmovdqu %xmm9, (%rdi) vmovdqu %xmm8, 16(%rdi) addq $32, %rdi addq $-32, %rsi vmovdqu %xmm2, %xmm9 vmovdqu %xmm3, %xmm8 Ljade_stream_chacha_chacha20_ietf_amd64_avx$9: cmpq $16, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$8 vmovdqu %xmm9, (%rdi) addq $16, %rdi addq $-16, %rsi vmovdqu %xmm8, %xmm9 Ljade_stream_chacha_chacha20_ietf_amd64_avx$8: vpextrq $0, %xmm9, %rax cmpq $8, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$5 movq %rax, (%rdi) addq $8, %rdi addq $-8, %rsi vpextrq $1, %xmm9, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx$7: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$5 Ljade_stream_chacha_chacha20_ietf_amd64_avx$6: movb %al, %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi addq $-1, %rsi Ljade_stream_chacha_chacha20_ietf_amd64_avx$5: cmpq $0, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$6 Ljade_stream_chacha_chacha20_ietf_amd64_avx$4: Ljade_stream_chacha_chacha20_ietf_amd64_avx$2: xorq %rax, %rax movq %r10, %rsp ret _jade_stream_chacha_chacha20_ietf_amd64_avx_xor: jade_stream_chacha_chacha20_ietf_amd64_avx_xor: movq %rsp, %r10 leaq -592(%rsp), %rsp andq $-16, %rsp cmpq $129, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$1 vmovdqu glob_data + 64(%rip), %xmm0 vmovdqu glob_data + 48(%rip), %xmm1 vmovdqu %xmm0, (%rsp) vmovdqu %xmm1, 16(%rsp) vmovdqu glob_data + 112(%rip), %xmm0 vmovdqu glob_data + 128(%rip), %xmm1 vmovdqu glob_data + 144(%rip), %xmm2 vmovdqu glob_data + 160(%rip), %xmm3 vpbroadcastd (%r8), %xmm4 vpbroadcastd 4(%r8), %xmm5 vpbroadcastd 8(%r8), %xmm6 vpbroadcastd 12(%r8), %xmm7 vpbroadcastd 16(%r8), %xmm8 vpbroadcastd 20(%r8), %xmm9 vpbroadcastd 24(%r8), %xmm10 vpbroadcastd 28(%r8), %xmm11 vmovdqu glob_data + 96(%rip), %xmm12 vpbroadcastd (%rcx), %xmm13 vpbroadcastd 4(%rcx), %xmm14 vpbroadcastd 8(%rcx), %xmm15 vmovdqu %xmm0, 336(%rsp) vmovdqu %xmm1, 352(%rsp) vmovdqu %xmm2, 368(%rsp) vmovdqu %xmm3, 384(%rsp) vmovdqu %xmm4, 400(%rsp) vmovdqu %xmm5, 416(%rsp) vmovdqu %xmm6, 432(%rsp) vmovdqu %xmm7, 448(%rsp) vmovdqu %xmm8, 464(%rsp) vmovdqu %xmm9, 480(%rsp) vmovdqu %xmm10, 496(%rsp) vmovdqu %xmm11, 512(%rsp) vmovdqu %xmm12, 528(%rsp) vmovdqu %xmm13, 544(%rsp) vmovdqu %xmm14, 560(%rsp) vmovdqu %xmm15, 576(%rsp) jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$29 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$30: vmovdqu 336(%rsp), %xmm0 vmovdqu 352(%rsp), %xmm1 vmovdqu 368(%rsp), %xmm2 vmovdqu 384(%rsp), %xmm3 vmovdqu 400(%rsp), %xmm4 vmovdqu 416(%rsp), %xmm5 vmovdqu 432(%rsp), %xmm6 vmovdqu 448(%rsp), %xmm7 vmovdqu 464(%rsp), %xmm8 vmovdqu 480(%rsp), %xmm9 vmovdqu 496(%rsp), %xmm10 vmovdqu 512(%rsp), %xmm11 vmovdqu 528(%rsp), %xmm12 vmovdqu 544(%rsp), %xmm13 vmovdqu 560(%rsp), %xmm14 vmovdqu 576(%rsp), %xmm15 vmovdqu %xmm15, 32(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$31: vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vmovdqu %xmm14, 48(%rsp) vmovdqu 32(%rsp), %xmm14 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vmovdqu %xmm14, 64(%rsp) vmovdqu 48(%rsp), %xmm14 vmovdqu %xmm14, 48(%rsp) vmovdqu 64(%rsp), %xmm14 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vmovdqu %xmm14, 32(%rsp) vmovdqu 48(%rsp), %xmm14 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$31 vmovdqu 32(%rsp), %xmm15 vpaddd 336(%rsp), %xmm0, %xmm0 vpaddd 352(%rsp), %xmm1, %xmm1 vpaddd 368(%rsp), %xmm2, %xmm2 vpaddd 384(%rsp), %xmm3, %xmm3 vpaddd 400(%rsp), %xmm4, %xmm4 vpaddd 416(%rsp), %xmm5, %xmm5 vpaddd 432(%rsp), %xmm6, %xmm6 vpaddd 448(%rsp), %xmm7, %xmm7 vpaddd 464(%rsp), %xmm8, %xmm8 vpaddd 480(%rsp), %xmm9, %xmm9 vpaddd 496(%rsp), %xmm10, %xmm10 vpaddd 512(%rsp), %xmm11, %xmm11 vpaddd 528(%rsp), %xmm12, %xmm12 vpaddd 544(%rsp), %xmm13, %xmm13 vpaddd 560(%rsp), %xmm14, %xmm14 vpaddd 576(%rsp), %xmm15, %xmm15 vmovdqu %xmm8, 80(%rsp) vmovdqu %xmm9, 96(%rsp) vmovdqu %xmm10, 112(%rsp) vmovdqu %xmm11, 128(%rsp) vmovdqu %xmm12, 144(%rsp) vmovdqu %xmm13, 160(%rsp) vmovdqu %xmm14, 176(%rsp) vmovdqu %xmm15, 192(%rsp) vpunpckldq %xmm1, %xmm0, %xmm8 vpunpckhdq %xmm1, %xmm0, %xmm0 vpunpckldq %xmm3, %xmm2, %xmm1 vpunpckhdq %xmm3, %xmm2, %xmm2 vpunpckldq %xmm5, %xmm4, %xmm3 vpunpckhdq %xmm5, %xmm4, %xmm4 vpunpckldq %xmm7, %xmm6, %xmm5 vpunpckhdq %xmm7, %xmm6, %xmm6 vpunpcklqdq %xmm1, %xmm8, %xmm7 vpunpcklqdq %xmm5, %xmm3, %xmm9 vpunpckhqdq %xmm1, %xmm8, %xmm1 vpunpckhqdq %xmm5, %xmm3, %xmm3 vpunpcklqdq %xmm2, %xmm0, %xmm5 vpunpcklqdq %xmm6, %xmm4, %xmm8 vpunpckhqdq %xmm2, %xmm0, %xmm0 vpunpckhqdq %xmm6, %xmm4, %xmm2 vpxor (%rsi), %xmm7, %xmm4 vpxor 16(%rsi), %xmm9, %xmm6 vpxor 64(%rsi), %xmm1, %xmm1 vpxor 80(%rsi), %xmm3, %xmm3 vpxor 128(%rsi), %xmm5, %xmm5 vpxor 144(%rsi), %xmm8, %xmm7 vpxor 192(%rsi), %xmm0, %xmm0 vpxor 208(%rsi), %xmm2, %xmm2 vmovdqu %xmm4, (%rdi) vmovdqu %xmm6, 16(%rdi) vmovdqu %xmm1, 64(%rdi) vmovdqu %xmm3, 80(%rdi) vmovdqu %xmm5, 128(%rdi) vmovdqu %xmm7, 144(%rdi) vmovdqu %xmm0, 192(%rdi) vmovdqu %xmm2, 208(%rdi) vmovdqu 80(%rsp), %xmm0 vmovdqu 112(%rsp), %xmm1 vmovdqu 144(%rsp), %xmm2 vmovdqu 176(%rsp), %xmm3 vpunpckldq 96(%rsp), %xmm0, %xmm4 vpunpckhdq 96(%rsp), %xmm0, %xmm0 vpunpckldq 128(%rsp), %xmm1, %xmm5 vpunpckhdq 128(%rsp), %xmm1, %xmm1 vpunpckldq 160(%rsp), %xmm2, %xmm6 vpunpckhdq 160(%rsp), %xmm2, %xmm2 vpunpckldq 192(%rsp), %xmm3, %xmm7 vpunpckhdq 192(%rsp), %xmm3, %xmm3 vpunpcklqdq %xmm5, %xmm4, %xmm8 vpunpcklqdq %xmm7, %xmm6, %xmm9 vpunpckhqdq %xmm5, %xmm4, %xmm4 vpunpckhqdq %xmm7, %xmm6, %xmm5 vpunpcklqdq %xmm1, %xmm0, %xmm6 vpunpcklqdq %xmm3, %xmm2, %xmm7 vpunpckhqdq %xmm1, %xmm0, %xmm0 vpunpckhqdq %xmm3, %xmm2, %xmm1 vpxor 32(%rsi), %xmm8, %xmm2 vpxor 48(%rsi), %xmm9, %xmm3 vpxor 96(%rsi), %xmm4, %xmm4 vpxor 112(%rsi), %xmm5, %xmm5 vpxor 160(%rsi), %xmm6, %xmm6 vpxor 176(%rsi), %xmm7, %xmm7 vpxor 224(%rsi), %xmm0, %xmm0 vpxor 240(%rsi), %xmm1, %xmm1 vmovdqu %xmm2, 32(%rdi) vmovdqu %xmm3, 48(%rdi) vmovdqu %xmm4, 96(%rdi) vmovdqu %xmm5, 112(%rdi) vmovdqu %xmm6, 160(%rdi) vmovdqu %xmm7, 176(%rdi) vmovdqu %xmm0, 224(%rdi) vmovdqu %xmm1, 240(%rdi) addq $256, %rdi addq $256, %rsi addq $-256, %rdx vmovdqu glob_data + 0(%rip), %xmm0 vpaddd 528(%rsp), %xmm0, %xmm0 vmovdqu %xmm0, 528(%rsp) Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$29: cmpq $256, %rdx jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$30 cmpq $0, %rdx jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2 vmovdqu 336(%rsp), %xmm0 vmovdqu 352(%rsp), %xmm1 vmovdqu 368(%rsp), %xmm2 vmovdqu 384(%rsp), %xmm3 vmovdqu 400(%rsp), %xmm4 vmovdqu 416(%rsp), %xmm5 vmovdqu 432(%rsp), %xmm6 vmovdqu 448(%rsp), %xmm7 vmovdqu 464(%rsp), %xmm8 vmovdqu 480(%rsp), %xmm9 vmovdqu 496(%rsp), %xmm10 vmovdqu 512(%rsp), %xmm11 vmovdqu 528(%rsp), %xmm12 vmovdqu 544(%rsp), %xmm13 vmovdqu 560(%rsp), %xmm14 vmovdqu 576(%rsp), %xmm15 vmovdqu %xmm15, 32(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$28: vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vmovdqu %xmm14, 48(%rsp) vmovdqu 32(%rsp), %xmm14 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vmovdqu %xmm14, 64(%rsp) vmovdqu 48(%rsp), %xmm14 vmovdqu %xmm14, 48(%rsp) vmovdqu 64(%rsp), %xmm14 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vmovdqu %xmm14, 32(%rsp) vmovdqu 48(%rsp), %xmm14 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$28 vmovdqu 32(%rsp), %xmm15 vpaddd 336(%rsp), %xmm0, %xmm0 vpaddd 352(%rsp), %xmm1, %xmm1 vpaddd 368(%rsp), %xmm2, %xmm2 vpaddd 384(%rsp), %xmm3, %xmm3 vpaddd 400(%rsp), %xmm4, %xmm4 vpaddd 416(%rsp), %xmm5, %xmm5 vpaddd 432(%rsp), %xmm6, %xmm6 vpaddd 448(%rsp), %xmm7, %xmm7 vpaddd 464(%rsp), %xmm8, %xmm8 vpaddd 480(%rsp), %xmm9, %xmm9 vpaddd 496(%rsp), %xmm10, %xmm10 vpaddd 512(%rsp), %xmm11, %xmm11 vpaddd 528(%rsp), %xmm12, %xmm12 vpaddd 544(%rsp), %xmm13, %xmm13 vpaddd 560(%rsp), %xmm14, %xmm14 vpaddd 576(%rsp), %xmm15, %xmm15 vmovdqu %xmm8, 80(%rsp) vmovdqu %xmm9, 96(%rsp) vmovdqu %xmm10, 112(%rsp) vmovdqu %xmm11, 128(%rsp) vmovdqu %xmm12, 144(%rsp) vmovdqu %xmm13, 160(%rsp) vmovdqu %xmm14, 176(%rsp) vmovdqu %xmm15, 192(%rsp) vpunpckldq %xmm1, %xmm0, %xmm8 vpunpckhdq %xmm1, %xmm0, %xmm0 vpunpckldq %xmm3, %xmm2, %xmm1 vpunpckhdq %xmm3, %xmm2, %xmm2 vpunpckldq %xmm5, %xmm4, %xmm3 vpunpckhdq %xmm5, %xmm4, %xmm4 vpunpckldq %xmm7, %xmm6, %xmm5 vpunpckhdq %xmm7, %xmm6, %xmm6 vpunpcklqdq %xmm1, %xmm8, %xmm7 vpunpcklqdq %xmm5, %xmm3, %xmm9 vpunpckhqdq %xmm1, %xmm8, %xmm1 vpunpckhqdq %xmm5, %xmm3, %xmm3 vpunpcklqdq %xmm2, %xmm0, %xmm5 vpunpcklqdq %xmm6, %xmm4, %xmm8 vpunpckhqdq %xmm2, %xmm0, %xmm0 vpunpckhqdq %xmm6, %xmm4, %xmm2 vmovdqu %xmm7, 208(%rsp) vmovdqu %xmm9, 224(%rsp) vmovdqu %xmm1, 240(%rsp) vmovdqu %xmm3, 256(%rsp) vmovdqu %xmm5, 272(%rsp) vmovdqu %xmm8, 288(%rsp) vmovdqu %xmm0, 304(%rsp) vmovdqu %xmm2, 320(%rsp) vmovdqu 80(%rsp), %xmm0 vmovdqu 112(%rsp), %xmm1 vmovdqu 144(%rsp), %xmm2 vmovdqu 176(%rsp), %xmm3 vpunpckldq 96(%rsp), %xmm0, %xmm4 vpunpckhdq 96(%rsp), %xmm0, %xmm0 vpunpckldq 128(%rsp), %xmm1, %xmm5 vpunpckhdq 128(%rsp), %xmm1, %xmm1 vpunpckldq 160(%rsp), %xmm2, %xmm6 vpunpckhdq 160(%rsp), %xmm2, %xmm2 vpunpckldq 192(%rsp), %xmm3, %xmm7 vpunpckhdq 192(%rsp), %xmm3, %xmm3 vpunpcklqdq %xmm5, %xmm4, %xmm8 vpunpcklqdq %xmm7, %xmm6, %xmm9 vpunpckhqdq %xmm5, %xmm4, %xmm4 vpunpckhqdq %xmm7, %xmm6, %xmm5 vpunpcklqdq %xmm1, %xmm0, %xmm6 vpunpcklqdq %xmm3, %xmm2, %xmm7 vpunpckhqdq %xmm1, %xmm0, %xmm0 vpunpckhqdq %xmm3, %xmm2, %xmm1 vmovdqu 208(%rsp), %xmm2 vmovdqu 224(%rsp), %xmm12 vmovdqu %xmm8, %xmm11 vmovdqu %xmm9, %xmm10 vmovdqu 240(%rsp), %xmm9 vmovdqu 256(%rsp), %xmm8 vmovdqu %xmm5, %xmm3 cmpq $128, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$27 vpxor (%rsi), %xmm2, %xmm2 vmovdqu %xmm2, (%rdi) vpxor 16(%rsi), %xmm12, %xmm2 vmovdqu %xmm2, 16(%rdi) vpxor 32(%rsi), %xmm11, %xmm2 vmovdqu %xmm2, 32(%rdi) vpxor 48(%rsi), %xmm10, %xmm2 vmovdqu %xmm2, 48(%rdi) vpxor 64(%rsi), %xmm9, %xmm2 vmovdqu %xmm2, 64(%rdi) vpxor 80(%rsi), %xmm8, %xmm2 vmovdqu %xmm2, 80(%rdi) vpxor 96(%rsi), %xmm4, %xmm2 vmovdqu %xmm2, 96(%rdi) vpxor 112(%rsi), %xmm3, %xmm2 vmovdqu %xmm2, 112(%rdi) addq $128, %rdi addq $128, %rsi addq $-128, %rdx vmovdqu 272(%rsp), %xmm2 vmovdqu 288(%rsp), %xmm12 vmovdqu %xmm6, %xmm11 vmovdqu %xmm7, %xmm10 vmovdqu 304(%rsp), %xmm9 vmovdqu 320(%rsp), %xmm8 vmovdqu %xmm0, %xmm4 vmovdqu %xmm1, %xmm3 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$27: cmpq $64, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$26 vpxor (%rsi), %xmm2, %xmm0 vmovdqu %xmm0, (%rdi) vpxor 16(%rsi), %xmm12, %xmm0 vmovdqu %xmm0, 16(%rdi) vpxor 32(%rsi), %xmm11, %xmm0 vmovdqu %xmm0, 32(%rdi) vpxor 48(%rsi), %xmm10, %xmm0 vmovdqu %xmm0, 48(%rdi) addq $64, %rdi addq $64, %rsi addq $-64, %rdx vmovdqu %xmm9, %xmm2 vmovdqu %xmm8, %xmm12 vmovdqu %xmm4, %xmm11 vmovdqu %xmm3, %xmm10 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$26: cmpq $32, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$25 vpxor (%rsi), %xmm2, %xmm0 vmovdqu %xmm0, (%rdi) vpxor 16(%rsi), %xmm12, %xmm0 vmovdqu %xmm0, 16(%rdi) addq $32, %rdi addq $32, %rsi addq $-32, %rdx vmovdqu %xmm11, %xmm2 vmovdqu %xmm10, %xmm12 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$25: cmpq $16, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$24 vpxor (%rsi), %xmm2, %xmm0 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $16, %rsi addq $-16, %rdx vmovdqu %xmm12, %xmm2 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$24: vpextrq $0, %xmm2, %rax cmpq $8, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$21 xorq (%rsi), %rax movq %rax, (%rdi) addq $8, %rdi addq $8, %rsi addq $-8, %rdx vpextrq $1, %xmm2, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$23: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$21 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$22: movb %al, %cl xorb (%rsi), %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi incq %rsi addq $-1, %rdx Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$21: cmpq $0, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$22 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$20: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$1: vmovdqu glob_data + 64(%rip), %xmm0 vmovdqu glob_data + 48(%rip), %xmm1 vmovdqu glob_data + 208(%rip), %xmm2 vmovdqu (%r8), %xmm3 vmovdqu 16(%r8), %xmm4 vpxor %xmm5, %xmm5, %xmm5 vpinsrd $1, (%rcx), %xmm5, %xmm5 vpinsrq $1, 4(%rcx), %xmm5, %xmm5 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$17 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$18: vmovdqu %xmm2, %xmm6 vmovdqu %xmm3, %xmm7 vmovdqu %xmm4, %xmm8 vmovdqu %xmm5, %xmm9 vmovdqu %xmm2, %xmm10 vmovdqu %xmm3, %xmm11 vmovdqu %xmm4, %xmm12 vmovdqu %xmm5, %xmm13 vpaddd glob_data + 32(%rip), %xmm13, %xmm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$19: vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $57, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $-109, %xmm9, %xmm9 vpshufd $57, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $-109, %xmm13, %xmm13 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $-109, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $57, %xmm9, %xmm9 vpshufd $-109, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $57, %xmm13, %xmm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$19 vpaddd %xmm2, %xmm6, %xmm6 vpaddd %xmm3, %xmm7, %xmm7 vpaddd %xmm4, %xmm8, %xmm8 vpaddd %xmm5, %xmm9, %xmm9 vpaddd %xmm2, %xmm10, %xmm10 vpaddd %xmm3, %xmm11, %xmm11 vpaddd %xmm4, %xmm12, %xmm12 vpaddd %xmm5, %xmm13, %xmm13 vpaddd glob_data + 32(%rip), %xmm13, %xmm13 vpxor (%rsi), %xmm6, %xmm6 vmovdqu %xmm6, (%rdi) vpxor 16(%rsi), %xmm7, %xmm6 vmovdqu %xmm6, 16(%rdi) vpxor 32(%rsi), %xmm8, %xmm6 vmovdqu %xmm6, 32(%rdi) vpxor 48(%rsi), %xmm9, %xmm6 vmovdqu %xmm6, 48(%rdi) vpxor 64(%rsi), %xmm10, %xmm6 vmovdqu %xmm6, 64(%rdi) vpxor 80(%rsi), %xmm11, %xmm6 vmovdqu %xmm6, 80(%rdi) vpxor 96(%rsi), %xmm12, %xmm6 vmovdqu %xmm6, 96(%rdi) vpxor 112(%rsi), %xmm13, %xmm6 vmovdqu %xmm6, 112(%rdi) addq $128, %rdi addq $128, %rsi addq $-128, %rdx vpaddd glob_data + 16(%rip), %xmm5, %xmm5 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$17: cmpq $128, %rdx jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$18 cmpq $64, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$3 vmovdqu %xmm2, %xmm6 vmovdqu %xmm3, %xmm7 vmovdqu %xmm4, %xmm8 vmovdqu %xmm5, %xmm9 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$16: vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm0, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm10 vpsrld $20, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm1, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm10 vpsrld $25, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpshufd $57, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $-109, %xmm9, %xmm9 vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm0, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm10 vpsrld $20, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm1, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm10 vpsrld $25, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpshufd $-109, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $57, %xmm9, %xmm9 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$16 vpaddd %xmm2, %xmm6, %xmm2 vpaddd %xmm3, %xmm7, %xmm3 vpaddd %xmm4, %xmm8, %xmm0 vpaddd %xmm5, %xmm9, %xmm1 cmpq $32, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$15 vpxor (%rsi), %xmm2, %xmm2 vmovdqu %xmm2, (%rdi) vpxor 16(%rsi), %xmm3, %xmm2 vmovdqu %xmm2, 16(%rdi) addq $32, %rdi addq $32, %rsi addq $-32, %rdx vmovdqu %xmm0, %xmm2 vmovdqu %xmm1, %xmm3 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$15: cmpq $16, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$14 vpxor (%rsi), %xmm2, %xmm0 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $16, %rsi addq $-16, %rdx vmovdqu %xmm3, %xmm2 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$14: vpextrq $0, %xmm2, %rax cmpq $8, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$11 xorq (%rsi), %rax movq %rax, (%rdi) addq $8, %rdi addq $8, %rsi addq $-8, %rdx vpextrq $1, %xmm2, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$13: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$11 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$12: movb %al, %cl xorb (%rsi), %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi incq %rsi addq $-1, %rdx Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$11: cmpq $0, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$12 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$3: vmovdqu %xmm2, %xmm6 vmovdqu %xmm3, %xmm7 vmovdqu %xmm4, %xmm8 vmovdqu %xmm5, %xmm9 vmovdqu %xmm2, %xmm10 vmovdqu %xmm3, %xmm11 vmovdqu %xmm4, %xmm12 vmovdqu %xmm5, %xmm13 vpaddd glob_data + 32(%rip), %xmm13, %xmm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$10: vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $57, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $-109, %xmm9, %xmm9 vpshufd $57, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $-109, %xmm13, %xmm13 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $-109, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $57, %xmm9, %xmm9 vpshufd $-109, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $57, %xmm13, %xmm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$10 vpaddd %xmm2, %xmm6, %xmm0 vpaddd %xmm3, %xmm7, %xmm1 vpaddd %xmm4, %xmm8, %xmm6 vpaddd %xmm5, %xmm9, %xmm7 vpaddd %xmm2, %xmm10, %xmm9 vpaddd %xmm3, %xmm11, %xmm8 vpaddd %xmm4, %xmm12, %xmm2 vpaddd %xmm5, %xmm13, %xmm3 vpaddd glob_data + 32(%rip), %xmm3, %xmm3 vpxor (%rsi), %xmm0, %xmm0 vmovdqu %xmm0, (%rdi) vpxor 16(%rsi), %xmm1, %xmm0 vmovdqu %xmm0, 16(%rdi) vpxor 32(%rsi), %xmm6, %xmm0 vmovdqu %xmm0, 32(%rdi) vpxor 48(%rsi), %xmm7, %xmm0 vmovdqu %xmm0, 48(%rdi) addq $64, %rdi addq $64, %rsi addq $-64, %rdx cmpq $32, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$9 vpxor (%rsi), %xmm9, %xmm0 vmovdqu %xmm0, (%rdi) vpxor 16(%rsi), %xmm8, %xmm0 vmovdqu %xmm0, 16(%rdi) addq $32, %rdi addq $32, %rsi addq $-32, %rdx vmovdqu %xmm2, %xmm9 vmovdqu %xmm3, %xmm8 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$9: cmpq $16, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$8 vpxor (%rsi), %xmm9, %xmm0 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $16, %rsi addq $-16, %rdx vmovdqu %xmm8, %xmm9 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$8: vpextrq $0, %xmm9, %rax cmpq $8, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$5 xorq (%rsi), %rax movq %rax, (%rdi) addq $8, %rdi addq $8, %rsi addq $-8, %rdx vpextrq $1, %xmm9, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$7: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$5 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$6: movb %al, %cl xorb (%rsi), %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi incq %rsi addq $-1, %rdx Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$5: cmpq $0, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$6 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$4: Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2: xorq %rax, %rax movq %r10, %rsp ret .data .p2align 5 _glob_data: glob_data: .byte 4 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 1 .byte 2 .byte 7 .byte 4 .byte 5 .byte 6 .byte 11 .byte 8 .byte 9 .byte 10 .byte 15 .byte 12 .byte 13 .byte 14 .byte 2 .byte 3 .byte 0 .byte 1 .byte 6 .byte 7 .byte 4 .byte 5 .byte 10 .byte 11 .byte 8 .byte 9 .byte 14 .byte 15 .byte 12 .byte 13 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 101 .byte 120 .byte 112 .byte 97 .byte 110 .byte 100 .byte 32 .byte 51 .byte 50 .byte 45 .byte 98 .byte 121 .byte 116 .byte 101 .byte 32 .byte 107
usenix-security-verdict/verdict
128,503
deps/libcrux/sys/libjade/jazz/x25519_mulx.s
.att_syntax .text .p2align 5 .globl _jade_scalarmult_curve25519_amd64_mulx_base .globl jade_scalarmult_curve25519_amd64_mulx_base .globl _jade_scalarmult_curve25519_amd64_mulx .globl jade_scalarmult_curve25519_amd64_mulx _jade_scalarmult_curve25519_amd64_mulx_base: jade_scalarmult_curve25519_amd64_mulx_base: movq %rsp, %rax leaq -408(%rsp), %rsp andq $-8, %rsp movq %rax, 400(%rsp) movq %rbx, 352(%rsp) movq %rbp, 360(%rsp) movq %r12, 368(%rsp) movq %r13, 376(%rsp) movq %r14, 384(%rsp) movq %r15, 392(%rsp) movq %rdi, (%rsp) movq (%rsi), %rax movq %rax, 24(%rsp) movq 8(%rsi), %rax movq %rax, 32(%rsp) movq 16(%rsi), %rax movq %rax, 40(%rsp) movq 24(%rsi), %rax movq %rax, 48(%rsp) andb $-8, 24(%rsp) andb $127, 55(%rsp) orb $64, 55(%rsp) movq $9, %rcx movq $0, %rdx movq $0, %r9 movq $0, %r10 xorq %r11, %r11 movq $1, 56(%rsp) movq $0, %rax movq %rcx, 88(%rsp) movq %rdx, 96(%rsp) movq %r9, 104(%rsp) movq %r10, 112(%rsp) movq $1, 120(%rsp) movq %r11, 64(%rsp) movq %r11, %r8 movq %r11, 128(%rsp) movq %r11, 72(%rsp) movq %r11, %rsi movq %r11, 136(%rsp) movq %r11, 80(%rsp) movq %r11, %rdi movq %r11, 144(%rsp) movq %rcx, 152(%rsp) movq %rdx, 160(%rsp) movq %r9, 168(%rsp) movq %r10, 176(%rsp) movq $255, %rcx movq $0, 8(%rsp) Ljade_scalarmult_curve25519_amd64_mulx_base$9: addq $-1, %rcx movq %rcx, 16(%rsp) movq %rcx, %rdx shrq $3, %rdx movzbq 24(%rsp,%rdx), %rdx andq $7, %rcx shrq %cl, %rdx andq $1, %rdx movq 8(%rsp), %r9 xorq %rdx, %r9 xorq %rcx, %rcx subq %r9, %rcx movq 120(%rsp), %r9 movq 128(%rsp), %r10 movq 136(%rsp), %r11 movq 144(%rsp), %rbx movq %rax, %rbp movq %r8, %r12 movq %rsi, %r13 movq %rdi, %r14 xorq %r9, %rbp xorq %r10, %r12 xorq %r11, %r13 xorq %rbx, %r14 andq %rcx, %rbp andq %rcx, %r12 andq %rcx, %r13 andq %rcx, %r14 xorq %rbp, %rax xorq %rbp, %r9 movq %r9, 120(%rsp) xorq %r12, %r8 xorq %r12, %r10 movq %r10, 128(%rsp) xorq %r13, %rsi xorq %r13, %r11 movq %r11, 136(%rsp) xorq %r14, %rdi xorq %r14, %rbx movq %rbx, 144(%rsp) movq 88(%rsp), %r11 movq 96(%rsp), %rbx movq 104(%rsp), %r9 movq 112(%rsp), %r10 movq 56(%rsp), %rbp movq %r11, %r12 xorq %rbp, %r12 andq %rcx, %r12 xorq %r12, %rbp xorq %r12, %r11 movq %rbp, 56(%rsp) movq %r11, 88(%rsp) movq 64(%rsp), %r11 movq %rbx, %rbp xorq %r11, %rbp andq %rcx, %rbp xorq %rbp, %r11 xorq %rbp, %rbx movq %r11, 64(%rsp) movq %rbx, 96(%rsp) movq 72(%rsp), %r11 movq %r9, %rbx xorq %r11, %rbx andq %rcx, %rbx xorq %rbx, %r11 xorq %rbx, %r9 movq %r11, 72(%rsp) movq %r9, 104(%rsp) movq 80(%rsp), %r9 movq %r10, %r11 xorq %r9, %r11 andq %rcx, %r11 xorq %r11, %r9 xorq %r11, %r10 movq %r9, 80(%rsp) movq %r10, 112(%rsp) movq %rdx, 8(%rsp) xorq %rcx, %rcx movq 56(%rsp), %rdx movq 64(%rsp), %r9 movq 72(%rsp), %r10 movq 80(%rsp), %r11 subq %rax, %rdx sbbq %r8, %r9 sbbq %rsi, %r10 sbbq %rdi, %r11 sbbq %rcx, %rcx andq $38, %rcx subq %rcx, %rdx sbbq $0, %r9 sbbq $0, %r10 sbbq $0, %r11 sbbq %rcx, %rcx andq $38, %rcx subq %rcx, %rdx movq %rdx, 184(%rsp) movq %r9, 192(%rsp) movq %r10, 200(%rsp) movq %r11, 208(%rsp) xorq %rcx, %rcx addq 56(%rsp), %rax adcq 64(%rsp), %r8 adcq 72(%rsp), %rsi adcq 80(%rsp), %rdi sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rax adcq $0, %r8 adcq $0, %rsi adcq $0, %rdi sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rax movq %rax, 216(%rsp) movq %r8, 224(%rsp) movq %rsi, 232(%rsp) movq %rdi, 240(%rsp) movq 88(%rsp), %rax movq 96(%rsp), %rcx movq 104(%rsp), %rdx movq 112(%rsp), %rsi xorq %rdi, %rdi subq 120(%rsp), %rax sbbq 128(%rsp), %rcx sbbq 136(%rsp), %rdx sbbq 144(%rsp), %rsi sbbq %rdi, %rdi andq $38, %rdi subq %rdi, %rax sbbq $0, %rcx sbbq $0, %rdx sbbq $0, %rsi sbbq %rdi, %rdi andq $38, %rdi subq %rdi, %rax movq %rax, 248(%rsp) movq %rcx, 256(%rsp) movq %rdx, 264(%rsp) movq %rsi, 272(%rsp) movq 88(%rsp), %rax movq 96(%rsp), %rcx movq 104(%rsp), %rdx movq 112(%rsp), %rsi xorq %rdi, %rdi addq 120(%rsp), %rax adcq 128(%rsp), %rcx adcq 136(%rsp), %rdx adcq 144(%rsp), %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax adcq $0, %rcx adcq $0, %rdx adcq $0, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax movq %rax, 280(%rsp) movq %rcx, 288(%rsp) movq %rdx, 296(%rsp) movq %rsi, 304(%rsp) movq 248(%rsp), %r9 movq 256(%rsp), %r10 movq 264(%rsp), %r11 movq 272(%rsp), %rbx xorq %rax, %rax movq 216(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r10, %r8, %rdi adcxq %r8, %rcx MULXq %r11, %rbp, %r8 adcxq %rbp, %rdi MULXq %rbx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 224(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r8 MULXq %r11, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 232(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r8 MULXq %r10, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 240(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %r8 adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rax, %r9 adoxq %rax, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r12, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %r13, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r8 MULXq %r9, %r9, %rdx adoxq %r9, %r8 adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rax, %rcx adcq %rax, %rdi adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 248(%rsp) movq %rcx, 256(%rsp) movq %rdi, 264(%rsp) movq %r8, 272(%rsp) movq 184(%rsp), %r9 movq 192(%rsp), %r10 movq 200(%rsp), %r11 movq 208(%rsp), %rbx xorq %rax, %rax movq 280(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r10, %r8, %rdi adcxq %r8, %rcx MULXq %r11, %rbp, %r8 adcxq %rbp, %rdi MULXq %rbx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 288(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r8 MULXq %r11, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 296(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r8 MULXq %r10, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 304(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %r8 adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rax, %r9 adoxq %rax, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r12, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %r13, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r8 MULXq %r9, %r9, %rdx adoxq %r9, %r8 adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rax, %rcx adcq %rax, %rdi adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 280(%rsp) movq %rcx, 288(%rsp) movq %rdi, 296(%rsp) movq %r8, 304(%rsp) movq 216(%rsp), %rdx movq 224(%rsp), %r11 movq 232(%rsp), %r13 movq 240(%rsp), %rbx xorq %rax, %rax MULXq %rdx, %rsi, %rcx MULXq %r11, %r8, %rdi MULXq %r13, %r10, %r9 adcxq %r10, %rdi MULXq %rbx, %rdx, %r10 adcxq %rdx, %r9 movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %rax, %r11 adcxq %rax, %r13 adoxq %rax, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %r8, %r8 adoxq %rcx, %r8 adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %rax, %rbx adoxq %rax, %rbx movq $38, %rdx MULXq %r10, %r10, %rcx adoxq %r10, %rsi adcxq %rcx, %r8 MULXq %r11, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %rdi MULXq %r13, %r10, %rcx adoxq %r10, %rdi adcxq %rcx, %r9 MULXq %rbx, %rdx, %rcx adoxq %rdx, %r9 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rsi adcq %rax, %r8 adcq %rax, %rdi adcq %rax, %r9 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 216(%rsp) movq %r8, 224(%rsp) movq %rdi, 232(%rsp) movq %r9, 240(%rsp) movq 184(%rsp), %rdx movq 192(%rsp), %r11 movq 200(%rsp), %r13 movq 208(%rsp), %rbx xorq %r8, %r8 MULXq %rdx, %rax, %r9 MULXq %r11, %rsi, %rcx MULXq %r13, %r10, %rdi adcxq %r10, %rcx MULXq %rbx, %rdx, %r10 adcxq %rdx, %rdi movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %rdi adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %r8, %r11 adcxq %r8, %r13 adoxq %r8, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %rsi, %rsi adoxq %r9, %rsi adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rdi, %rdi adoxq %rbp, %rdi adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %r8, %rbx adoxq %r8, %rbx movq $38, %rdx MULXq %r10, %r10, %r9 adoxq %r10, %rax adcxq %r9, %rsi MULXq %r11, %r10, %r9 adoxq %r10, %rsi adcxq %r9, %rcx MULXq %r13, %r10, %r9 adoxq %r10, %rcx adcxq %r9, %rdi MULXq %rbx, %r9, %rdx adoxq %r9, %rdi adcxq %r8, %rdx adoxq %r8, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %r8, %rsi adcq %r8, %rcx adcq %r8, %rdi sbbq %r8, %r8 andq $38, %r8 addq %r8, %rax movq 248(%rsp), %rdx movq 256(%rsp), %r8 movq 264(%rsp), %r9 movq 272(%rsp), %r10 xorq %r11, %r11 addq 280(%rsp), %rdx adcq 288(%rsp), %r8 adcq 296(%rsp), %r9 adcq 304(%rsp), %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdx adcq $0, %r8 adcq $0, %r9 adcq $0, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdx movq %rdx, 184(%rsp) movq %r8, 192(%rsp) movq %r9, 200(%rsp) movq %r10, 208(%rsp) movq 248(%rsp), %rdx movq 256(%rsp), %r8 movq 264(%rsp), %r9 movq 272(%rsp), %r10 xorq %r11, %r11 subq 280(%rsp), %rdx sbbq 288(%rsp), %r8 sbbq 296(%rsp), %r9 sbbq 304(%rsp), %r10 sbbq %r11, %r11 andq $38, %r11 subq %r11, %rdx sbbq $0, %r8 sbbq $0, %r9 sbbq $0, %r10 sbbq %r11, %r11 andq $38, %r11 subq %r11, %rdx movq %rdx, 280(%rsp) movq %r8, 288(%rsp) movq %r9, 296(%rsp) movq %r10, 304(%rsp) xorq %rdx, %rdx movq 216(%rsp), %r8 movq 224(%rsp), %r9 movq 232(%rsp), %r10 movq 240(%rsp), %r11 subq %rax, %r8 sbbq %rsi, %r9 sbbq %rcx, %r10 sbbq %rdi, %r11 sbbq %rdx, %rdx andq $38, %rdx subq %rdx, %r8 sbbq $0, %r9 sbbq $0, %r10 sbbq $0, %r11 sbbq %rdx, %rdx andq $38, %rdx subq %rdx, %r8 movq %r8, 248(%rsp) movq %r9, 256(%rsp) movq %r10, 264(%rsp) movq %r11, 272(%rsp) xorq %r8, %r8 movq 216(%rsp), %rdx MULXq %rax, %r10, %r9 MULXq %rsi, %rbx, %r11 adcxq %rbx, %r9 MULXq %rcx, %rbp, %rbx adcxq %rbp, %r11 MULXq %rdi, %rdx, %rbp adcxq %rdx, %rbx adcxq %r8, %rbp movq 224(%rsp), %rdx MULXq %rax, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r11 MULXq %rsi, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbx MULXq %rcx, %r13, %r12 adoxq %r13, %rbx adcxq %r12, %rbp MULXq %rdi, %rdx, %r12 adoxq %rdx, %rbp adcxq %r8, %r12 adoxq %r8, %r12 movq 232(%rsp), %rdx MULXq %rax, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rbx MULXq %rsi, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %rbp MULXq %rcx, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rdi, %rdx, %r13 adoxq %rdx, %r12 adcxq %r8, %r13 adoxq %r8, %r13 movq 240(%rsp), %rdx MULXq %rax, %r14, %rax adoxq %r14, %rbx adcxq %rax, %rbp MULXq %rsi, %rsi, %rax adoxq %rsi, %rbp adcxq %rax, %r12 MULXq %rcx, %rcx, %rax adoxq %rcx, %r12 adcxq %rax, %r13 MULXq %rdi, %rcx, %rax adoxq %rcx, %r13 adcxq %r8, %rax adoxq %r8, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %r10 adcxq %rcx, %r9 MULXq %r12, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r11 MULXq %r13, %rsi, %rcx adoxq %rsi, %r11 adcxq %rcx, %rbx MULXq %rax, %rcx, %rax adoxq %rcx, %rbx adcxq %r8, %rax adoxq %r8, %rax imulq $38, %rax, %rax addq %rax, %r10 adcq %r8, %r9 adcq %r8, %r11 adcq %r8, %rbx sbbq %r8, %r8 andq $38, %r8 addq %r8, %r10 movq %r10, 56(%rsp) movq %r9, 64(%rsp) movq %r11, 72(%rsp) movq %rbx, 80(%rsp) movq 280(%rsp), %rdx movq 288(%rsp), %r11 movq 296(%rsp), %r13 movq 304(%rsp), %rbx xorq %rax, %rax MULXq %rdx, %rsi, %rcx MULXq %r11, %r8, %rdi MULXq %r13, %r10, %r9 adcxq %r10, %rdi MULXq %rbx, %rdx, %r10 adcxq %rdx, %r9 movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %rax, %r11 adcxq %rax, %r13 adoxq %rax, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %r8, %r8 adoxq %rcx, %r8 adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %rax, %rbx adoxq %rax, %rbx movq $38, %rdx MULXq %r10, %r10, %rcx adoxq %r10, %rsi adcxq %rcx, %r8 MULXq %r11, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %rdi MULXq %r13, %r10, %rcx adoxq %r10, %rdi adcxq %rcx, %r9 MULXq %rbx, %rdx, %rcx adoxq %rdx, %r9 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rsi adcq %rax, %r8 adcq %rax, %rdi adcq %rax, %r9 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 280(%rsp) movq %r8, 288(%rsp) movq %rdi, 296(%rsp) movq %r9, 304(%rsp) movq $121665, %rdx MULXq 248(%rsp), %rcx, %rax MULXq 256(%rsp), %rdi, %rsi addq %rdi, %rax MULXq 264(%rsp), %r8, %rdi adcq %r8, %rsi MULXq 272(%rsp), %r9, %r8 adcq %r9, %rdi adcq $0, %r8 imulq $38, %r8, %r8 addq %r8, %rcx adcq $0, %rax adcq $0, %rsi adcq $0, %rdi sbbq %rdx, %rdx andq $38, %rdx addq %rdx, %rcx movq %rcx, 312(%rsp) movq %rax, 320(%rsp) movq %rsi, 328(%rsp) movq %rdi, 336(%rsp) movq 184(%rsp), %rdx movq 192(%rsp), %r11 movq 200(%rsp), %r13 movq 208(%rsp), %rbx xorq %rax, %rax MULXq %rdx, %rsi, %rcx MULXq %r11, %r8, %rdi MULXq %r13, %r10, %r9 adcxq %r10, %rdi MULXq %rbx, %rdx, %r10 adcxq %rdx, %r9 movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %rax, %r11 adcxq %rax, %r13 adoxq %rax, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %r8, %r8 adoxq %rcx, %r8 adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %rax, %rbx adoxq %rax, %rbx movq $38, %rdx MULXq %r10, %r10, %rcx adoxq %r10, %rsi adcxq %rcx, %r8 MULXq %r11, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %rdi MULXq %r13, %r10, %rcx adoxq %r10, %rdi adcxq %rcx, %r9 MULXq %rbx, %rdx, %rcx adoxq %rdx, %r9 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rsi adcq %rax, %r8 adcq %rax, %rdi adcq %rax, %r9 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 88(%rsp) movq %r8, 96(%rsp) movq %rdi, 104(%rsp) movq %r9, 112(%rsp) movq 216(%rsp), %rax movq 224(%rsp), %rcx movq 232(%rsp), %rdx movq 240(%rsp), %rsi xorq %rdi, %rdi addq 312(%rsp), %rax adcq 320(%rsp), %rcx adcq 328(%rsp), %rdx adcq 336(%rsp), %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax adcq $0, %rcx adcq $0, %rdx adcq $0, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax movq %rax, 312(%rsp) movq %rcx, 320(%rsp) movq %rdx, 328(%rsp) movq %rsi, 336(%rsp) movq 280(%rsp), %r9 movq 288(%rsp), %r10 movq 296(%rsp), %r11 movq 304(%rsp), %rbx xorq %rax, %rax movq 152(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r10, %r8, %rdi adcxq %r8, %rcx MULXq %r11, %rbp, %r8 adcxq %rbp, %rdi MULXq %rbx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 160(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r8 MULXq %r11, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 168(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r8 MULXq %r10, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 176(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %r8 adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rax, %r9 adoxq %rax, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r12, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %r13, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r8 MULXq %r9, %r9, %rdx adoxq %r9, %r8 adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rax, %rcx adcq %rax, %rdi adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 120(%rsp) movq %rcx, 128(%rsp) movq %rdi, 136(%rsp) movq %r8, 144(%rsp) movq 312(%rsp), %r9 movq 320(%rsp), %r10 movq 328(%rsp), %r11 movq 336(%rsp), %rbx xorq %rcx, %rcx movq 248(%rsp), %rdx MULXq %r9, %rax, %r8 MULXq %r10, %rdi, %rsi adcxq %rdi, %r8 MULXq %r11, %rbp, %rdi adcxq %rbp, %rsi MULXq %rbx, %rdx, %rbp adcxq %rdx, %rdi adcxq %rcx, %rbp movq 256(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rsi MULXq %r10, %r13, %r12 adoxq %r13, %rsi adcxq %r12, %rdi MULXq %r11, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rcx, %r12 adoxq %rcx, %r12 movq 264(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rsi adcxq %r13, %rdi MULXq %r10, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rcx, %r13 adoxq %rcx, %r13 movq 272(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %rdi adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rcx, %r9 adoxq %rcx, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rax adcxq %r10, %r8 MULXq %r12, %r11, %r10 adoxq %r11, %r8 adcxq %r10, %rsi MULXq %r13, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rdi MULXq %r9, %r9, %rdx adoxq %r9, %rdi adcxq %rcx, %rdx adoxq %rcx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %rcx, %r8 adcq %rcx, %rsi adcq %rcx, %rdi sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rax movq 16(%rsp), %rcx cmpq $0, %rcx jnbe Ljade_scalarmult_curve25519_amd64_mulx_base$9 movq %rax, 120(%rsp) movq %r8, 128(%rsp) movq %rsi, 136(%rsp) movq %rdi, 144(%rsp) xorq %r9, %r9 movq %rax, %rdx MULXq %rdx, %r10, %rbx MULXq %r8, %r11, %rcx MULXq %rsi, %rbp, %rax adcxq %rbp, %rcx MULXq %rdi, %rdx, %rbp adcxq %rdx, %rax movq %r8, %rdx MULXq %rsi, %r12, %r8 adoxq %r12, %rax adcxq %r8, %rbp MULXq %rdi, %r12, %r8 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rsi, %rdx MULXq %rdi, %r14, %rsi adcxq %r14, %r8 adoxq %r9, %r8 adcxq %r9, %rsi adoxq %r9, %rsi MULXq %rdx, %r15, %r14 movq %rdi, %rdx MULXq %rdx, %rdx, %rdi adcxq %r11, %r11 adoxq %rbx, %r11 adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %rax, %rax adoxq %r12, %rax adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r8, %r8 adoxq %r14, %r8 adcxq %rsi, %rsi adoxq %rdx, %rsi adcxq %r9, %rdi adoxq %r9, %rdi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r10 adcxq %rbx, %r11 MULXq %r8, %rbx, %r8 adoxq %rbx, %r11 adcxq %r8, %rcx MULXq %rsi, %r8, %rsi adoxq %r8, %rcx adcxq %rsi, %rax MULXq %rdi, %rsi, %rdx adoxq %rsi, %rax adcxq %r9, %rdx adoxq %r9, %rdx imulq $38, %rdx, %rdx addq %rdx, %r10 adcq %r9, %r11 adcq %r9, %rcx adcq %r9, %rax sbbq %r9, %r9 andq $38, %r9 addq %r9, %r10 movq %r10, 88(%rsp) movq %r11, 96(%rsp) movq %rcx, 104(%rsp) movq %rax, 112(%rsp) xorq %rsi, %rsi movq %r10, %rdx MULXq %rdx, %rdi, %rbx MULXq %r11, %r10, %r9 MULXq %rcx, %rbp, %r8 adcxq %rbp, %r9 MULXq %rax, %rdx, %rbp adcxq %rdx, %r8 movq %r11, %rdx MULXq %rcx, %r12, %r11 adoxq %r12, %r8 adcxq %r11, %rbp MULXq %rax, %r12, %r11 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rcx, %rdx MULXq %rax, %r14, %rcx adcxq %r14, %r11 adoxq %rsi, %r11 adcxq %rsi, %rcx adoxq %rsi, %rcx MULXq %rdx, %r15, %r14 movq %rax, %rdx MULXq %rdx, %rdx, %rax adcxq %r10, %r10 adoxq %rbx, %r10 adcxq %r9, %r9 adoxq %r13, %r9 adcxq %r8, %r8 adoxq %r12, %r8 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r11, %r11 adoxq %r14, %r11 adcxq %rcx, %rcx adoxq %rdx, %rcx adcxq %rsi, %rax adoxq %rsi, %rax movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %r10 MULXq %r11, %rbx, %r11 adoxq %rbx, %r10 adcxq %r11, %r9 MULXq %rcx, %r11, %rcx adoxq %r11, %r9 adcxq %rcx, %r8 MULXq %rax, %rcx, %rax adoxq %rcx, %r8 adcxq %rsi, %rax adoxq %rsi, %rax imulq $38, %rax, %rax addq %rax, %rdi adcq %rsi, %r10 adcq %rsi, %r9 adcq %rsi, %r8 sbbq %rsi, %rsi andq $38, %rsi addq %rsi, %rdi xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rax, %rbx MULXq %r10, %rsi, %rcx MULXq %r9, %rbp, %rdi adcxq %rbp, %rcx MULXq %r8, %rdx, %rbp adcxq %rdx, %rdi movq %r10, %rdx MULXq %r9, %r12, %r10 adoxq %r12, %rdi adcxq %r10, %rbp MULXq %r8, %r12, %r10 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r9, %rdx MULXq %r8, %r14, %r9 adcxq %r14, %r10 adoxq %r11, %r10 adcxq %r11, %r9 adoxq %r11, %r9 MULXq %rdx, %r15, %r14 movq %r8, %rdx MULXq %rdx, %rdx, %r8 adcxq %rsi, %rsi adoxq %rbx, %rsi adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r10, %r10 adoxq %r14, %r10 adcxq %r9, %r9 adoxq %rdx, %r9 adcxq %r11, %r8 adoxq %r11, %r8 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rax adcxq %rbx, %rsi MULXq %r10, %rbx, %r10 adoxq %rbx, %rsi adcxq %r10, %rcx MULXq %r9, %r10, %r9 adoxq %r10, %rcx adcxq %r9, %rdi MULXq %r8, %r8, %rdx adoxq %r8, %rdi adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %r11, %rsi adcq %r11, %rcx adcq %r11, %rdi sbbq %r11, %r11 andq $38, %r11 addq %r11, %rax xorq %r11, %r11 movq 120(%rsp), %rdx MULXq %rax, %rbx, %r8 MULXq %rsi, %r10, %r9 adcxq %r10, %r8 MULXq %rcx, %rbp, %r10 adcxq %rbp, %r9 MULXq %rdi, %rdx, %rbp adcxq %rdx, %r10 adcxq %r11, %rbp movq 128(%rsp), %rdx MULXq %rax, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r9 MULXq %rsi, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r10 MULXq %rcx, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %rbp MULXq %rdi, %rdx, %r12 adoxq %rdx, %rbp adcxq %r11, %r12 adoxq %r11, %r12 movq 136(%rsp), %rdx MULXq %rax, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %r10 MULXq %rsi, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %rbp MULXq %rcx, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rdi, %rdx, %r13 adoxq %rdx, %r12 adcxq %r11, %r13 adoxq %r11, %r13 movq 144(%rsp), %rdx MULXq %rax, %r14, %rax adoxq %r14, %r10 adcxq %rax, %rbp MULXq %rsi, %rsi, %rax adoxq %rsi, %rbp adcxq %rax, %r12 MULXq %rcx, %rcx, %rax adoxq %rcx, %r12 adcxq %rax, %r13 MULXq %rdi, %rcx, %rax adoxq %rcx, %r13 adcxq %r11, %rax adoxq %r11, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %rbx adcxq %rcx, %r8 MULXq %r12, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r9 MULXq %r13, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rbx adcq %r11, %r8 adcq %r11, %r9 adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rbx movq %rbx, 120(%rsp) movq %r8, 128(%rsp) movq %r9, 136(%rsp) movq %r10, 144(%rsp) xorq %rcx, %rcx movq 88(%rsp), %rdx MULXq %rbx, %rsi, %r11 MULXq %r8, %rax, %rbp adcxq %rax, %r11 MULXq %r9, %rdi, %rax adcxq %rdi, %rbp MULXq %r10, %rdx, %rdi adcxq %rdx, %rax adcxq %rcx, %rdi movq 96(%rsp), %rdx MULXq %rbx, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbp MULXq %r8, %r13, %r12 adoxq %r13, %rbp adcxq %r12, %rax MULXq %r9, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rdi MULXq %r10, %rdx, %r12 adoxq %rdx, %rdi adcxq %rcx, %r12 adoxq %rcx, %r12 movq 104(%rsp), %rdx MULXq %rbx, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %rax MULXq %r8, %r14, %r13 adoxq %r14, %rax adcxq %r13, %rdi MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r12 MULXq %r10, %rdx, %r13 adoxq %rdx, %r12 adcxq %rcx, %r13 adoxq %rcx, %r13 movq 112(%rsp), %rdx MULXq %rbx, %r14, %rbx adoxq %r14, %rax adcxq %rbx, %rdi MULXq %r8, %rbx, %r8 adoxq %rbx, %rdi adcxq %r8, %r12 MULXq %r9, %r9, %r8 adoxq %r9, %r12 adcxq %r8, %r13 MULXq %r10, %rdx, %r8 adoxq %rdx, %r13 adcxq %rcx, %r8 adoxq %rcx, %r8 movq $38, %rdx MULXq %rdi, %r9, %rdi adoxq %r9, %rsi adcxq %rdi, %r11 MULXq %r12, %r9, %rdi adoxq %r9, %r11 adcxq %rdi, %rbp MULXq %r13, %r9, %rdi adoxq %r9, %rbp adcxq %rdi, %rax MULXq %r8, %rdi, %rdx adoxq %rdi, %rax adcxq %rcx, %rdx adoxq %rcx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rcx, %r11 adcq %rcx, %rbp adcq %rcx, %rax sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rsi movq %rsi, 88(%rsp) movq %r11, 96(%rsp) movq %rbp, 104(%rsp) movq %rax, 112(%rsp) xorq %r8, %r8 movq %rsi, %rdx MULXq %rdx, %rcx, %r10 MULXq %r11, %rdi, %rsi MULXq %rbp, %rbx, %r9 adcxq %rbx, %rsi MULXq %rax, %rdx, %rbx adcxq %rdx, %r9 movq %r11, %rdx MULXq %rbp, %r12, %r11 adoxq %r12, %r9 adcxq %r11, %rbx MULXq %rax, %r12, %r11 adoxq %r12, %rbx MULXq %rdx, %r13, %r12 movq %rbp, %rdx MULXq %rax, %r14, %rbp adcxq %r14, %r11 adoxq %r8, %r11 adcxq %r8, %rbp adoxq %r8, %rbp MULXq %rdx, %r15, %r14 movq %rax, %rdx MULXq %rdx, %rdx, %rax adcxq %rdi, %rdi adoxq %r10, %rdi adcxq %rsi, %rsi adoxq %r13, %rsi adcxq %r9, %r9 adoxq %r12, %r9 adcxq %rbx, %rbx adoxq %r15, %rbx adcxq %r11, %r11 adoxq %r14, %r11 adcxq %rbp, %rbp adoxq %rdx, %rbp adcxq %r8, %rax adoxq %r8, %rax movq $38, %rdx MULXq %rbx, %rbx, %r10 adoxq %rbx, %rcx adcxq %r10, %rdi MULXq %r11, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %rsi MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %r9 MULXq %rax, %rdx, %rax adoxq %rdx, %r9 adcxq %r8, %rax adoxq %r8, %rax imulq $38, %rax, %rax addq %rax, %rcx adcq %r8, %rdi adcq %r8, %rsi adcq %r8, %r9 sbbq %r8, %r8 andq $38, %r8 addq %r8, %rcx xorq %rax, %rax movq 120(%rsp), %rdx MULXq %rcx, %rbx, %r10 MULXq %rdi, %r8, %r11 adcxq %r8, %r10 MULXq %rsi, %rbp, %r8 adcxq %rbp, %r11 MULXq %r9, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 128(%rsp), %rdx MULXq %rcx, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %r11 MULXq %rdi, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %r8 MULXq %rsi, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %r9, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 136(%rsp), %rdx MULXq %rcx, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %r8 MULXq %rdi, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %rsi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r9, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 144(%rsp), %rdx MULXq %rcx, %r14, %rcx adoxq %r14, %r8 adcxq %rcx, %rbp MULXq %rdi, %rdi, %rcx adoxq %rdi, %rbp adcxq %rcx, %r12 MULXq %rsi, %rsi, %rcx adoxq %rsi, %r12 adcxq %rcx, %r13 MULXq %r9, %rdx, %rcx adoxq %rdx, %r13 adcxq %rax, %rcx adoxq %rax, %rcx movq $38, %rdx MULXq %rbp, %rdi, %rsi adoxq %rdi, %rbx adcxq %rsi, %r10 MULXq %r12, %rdi, %rsi adoxq %rdi, %r10 adcxq %rsi, %r11 MULXq %r13, %rdi, %rsi adoxq %rdi, %r11 adcxq %rsi, %r8 MULXq %rcx, %rdx, %rcx adoxq %rdx, %r8 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rbx adcq %rax, %r10 adcq %rax, %r11 adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rbx movq %rbx, 120(%rsp) movq %r10, 128(%rsp) movq %r11, 136(%rsp) movq %r8, 144(%rsp) xorq %r9, %r9 movq %rbx, %rdx MULXq %rdx, %rdi, %rbx MULXq %r10, %rsi, %rax MULXq %r11, %rbp, %rcx adcxq %rbp, %rax MULXq %r8, %rdx, %rbp adcxq %rdx, %rcx movq %r10, %rdx MULXq %r11, %r12, %r10 adoxq %r12, %rcx adcxq %r10, %rbp MULXq %r8, %r12, %r10 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r11, %rdx MULXq %r8, %r14, %r11 adcxq %r14, %r10 adoxq %r9, %r10 adcxq %r9, %r11 adoxq %r9, %r11 MULXq %rdx, %r15, %r14 movq %r8, %rdx MULXq %rdx, %rdx, %r8 adcxq %rsi, %rsi adoxq %rbx, %rsi adcxq %rax, %rax adoxq %r13, %rax adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r10, %r10 adoxq %r14, %r10 adcxq %r11, %r11 adoxq %rdx, %r11 adcxq %r9, %r8 adoxq %r9, %r8 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %rsi MULXq %r10, %rbx, %r10 adoxq %rbx, %rsi adcxq %r10, %rax MULXq %r11, %r11, %r10 adoxq %r11, %rax adcxq %r10, %rcx MULXq %r8, %r8, %rdx adoxq %r8, %rcx adcxq %r9, %rdx adoxq %r9, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %r9, %rsi adcq %r9, %rax adcq %r9, %rcx sbbq %r9, %r9 andq $38, %r9 addq %r9, %rdi movl $2, %edx Ljade_scalarmult_curve25519_amd64_mulx_base$8: movl %edx, 344(%rsp) xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %rsi, %r9, %r8 MULXq %rax, %rbp, %r10 adcxq %rbp, %r8 MULXq %rcx, %rdx, %rbp adcxq %rdx, %r10 movq %rsi, %rdx MULXq %rax, %r12, %rsi adoxq %r12, %r10 adcxq %rsi, %rbp MULXq %rcx, %r12, %rsi adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rcx, %r14, %rax adcxq %r14, %rsi adoxq %r11, %rsi adcxq %r11, %rax adoxq %r11, %rax MULXq %rdx, %r15, %r14 movq %rcx, %rdx MULXq %rdx, %rdx, %rcx adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %r8, %r8 adoxq %r13, %r8 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rsi, %rsi adoxq %r14, %rsi adcxq %rax, %rax adoxq %rdx, %rax adcxq %r11, %rcx adoxq %r11, %rcx movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %r9 MULXq %rsi, %rbx, %rsi adoxq %rbx, %r9 adcxq %rsi, %r8 MULXq %rax, %rsi, %rax adoxq %rsi, %r8 adcxq %rax, %r10 MULXq %rcx, %rcx, %rax adoxq %rcx, %r10 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rdi adcq %r11, %r9 adcq %r11, %r8 adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %r9, %rsi, %rax MULXq %r8, %rbp, %rcx adcxq %rbp, %rax MULXq %r10, %rdx, %rbp adcxq %rdx, %rcx movq %r9, %rdx MULXq %r8, %r12, %r9 adoxq %r12, %rcx adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r10, %r14, %r8 adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %r8 adoxq %r11, %r8 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rsi, %rsi adoxq %rbx, %rsi adcxq %rax, %rax adoxq %r13, %rax adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %rsi MULXq %r9, %rbx, %r9 adoxq %rbx, %rsi adcxq %r9, %rax MULXq %r8, %r9, %r8 adoxq %r9, %rax adcxq %r8, %rcx MULXq %r10, %r8, %rdx adoxq %r8, %rcx adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %r11, %rsi adcq %r11, %rax adcq %r11, %rcx sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi movl 344(%rsp), %edx decl %edx jne Ljade_scalarmult_curve25519_amd64_mulx_base$8 xorq %r10, %r10 movq 120(%rsp), %rdx MULXq %rdi, %r12, %r8 MULXq %rsi, %r9, %r11 adcxq %r9, %r8 MULXq %rax, %rbx, %r9 adcxq %rbx, %r11 MULXq %rcx, %rdx, %rbx adcxq %rdx, %r9 adcxq %r10, %rbx movq 128(%rsp), %rdx MULXq %rdi, %r13, %rbp adoxq %r13, %r8 adcxq %rbp, %r11 MULXq %rsi, %r13, %rbp adoxq %r13, %r11 adcxq %rbp, %r9 MULXq %rax, %r13, %rbp adoxq %r13, %r9 adcxq %rbp, %rbx MULXq %rcx, %rdx, %rbp adoxq %rdx, %rbx adcxq %r10, %rbp adoxq %r10, %rbp movq 136(%rsp), %rdx MULXq %rdi, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %r9 MULXq %rsi, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %rbx MULXq %rax, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %rbp MULXq %rcx, %rdx, %r13 adoxq %rdx, %rbp adcxq %r10, %r13 adoxq %r10, %r13 movq 144(%rsp), %rdx MULXq %rdi, %r14, %rdi adoxq %r14, %r9 adcxq %rdi, %rbx MULXq %rsi, %rdi, %rsi adoxq %rdi, %rbx adcxq %rsi, %rbp MULXq %rax, %rsi, %rax adoxq %rsi, %rbp adcxq %rax, %r13 MULXq %rcx, %rcx, %rax adoxq %rcx, %r13 adcxq %r10, %rax adoxq %r10, %rax movq $38, %rdx MULXq %rbx, %rsi, %rcx adoxq %rsi, %r12 adcxq %rcx, %r8 MULXq %rbp, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r11 MULXq %r13, %rsi, %rcx adoxq %rsi, %r11 adcxq %rcx, %r9 MULXq %rax, %rcx, %rax adoxq %rcx, %r9 adcxq %r10, %rax adoxq %r10, %rax imulq $38, %rax, %rax addq %rax, %r12 adcq %r10, %r8 adcq %r10, %r11 adcq %r10, %r9 sbbq %r10, %r10 andq $38, %r10 addq %r10, %r12 movq %r12, 120(%rsp) movq %r8, 128(%rsp) movq %r11, 136(%rsp) movq %r9, 144(%rsp) movl $5, %eax Ljade_scalarmult_curve25519_amd64_mulx_base$7: movl %eax, 344(%rsp) xorq %rdi, %rdi movq %r12, %rdx MULXq %rdx, %r10, %rbx MULXq %r8, %rcx, %rax MULXq %r11, %rbp, %rsi adcxq %rbp, %rax MULXq %r9, %rdx, %rbp adcxq %rdx, %rsi movq %r8, %rdx MULXq %r11, %r12, %r8 adoxq %r12, %rsi adcxq %r8, %rbp MULXq %r9, %r12, %r8 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r11, %rdx MULXq %r9, %r14, %r11 adcxq %r14, %r8 adoxq %rdi, %r8 adcxq %rdi, %r11 adoxq %rdi, %r11 MULXq %rdx, %r15, %r14 movq %r9, %rdx MULXq %rdx, %rdx, %r9 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rax, %rax adoxq %r13, %rax adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r8, %r8 adoxq %r14, %r8 adcxq %r11, %r11 adoxq %rdx, %r11 adcxq %rdi, %r9 adoxq %rdi, %r9 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r10 adcxq %rbx, %rcx MULXq %r8, %rbx, %r8 adoxq %rbx, %rcx adcxq %r8, %rax MULXq %r11, %r11, %r8 adoxq %r11, %rax adcxq %r8, %rsi MULXq %r9, %r8, %rdx adoxq %r8, %rsi adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %r10 adcq %rdi, %rcx adcq %rdi, %rax adcq %rdi, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r10 xorq %rdi, %rdi movq %r10, %rdx MULXq %rdx, %r12, %r10 MULXq %rcx, %r8, %r11 MULXq %rax, %rbx, %r9 adcxq %rbx, %r11 MULXq %rsi, %rdx, %rbx adcxq %rdx, %r9 movq %rcx, %rdx MULXq %rax, %rbp, %rcx adoxq %rbp, %r9 adcxq %rcx, %rbx MULXq %rsi, %rbp, %rcx adoxq %rbp, %rbx MULXq %rdx, %r13, %rbp movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %rcx adoxq %rdi, %rcx adcxq %rdi, %rax adoxq %rdi, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r8, %r8 adoxq %r10, %r8 adcxq %r11, %r11 adoxq %r13, %r11 adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %rbx, %rbx adoxq %r15, %rbx adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rax, %rax adoxq %rdx, %rax adcxq %rdi, %rsi adoxq %rdi, %rsi movq $38, %rdx MULXq %rbx, %rbx, %r10 adoxq %rbx, %r12 adcxq %r10, %r8 MULXq %rcx, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %r11 MULXq %rax, %rcx, %rax adoxq %rcx, %r11 adcxq %rax, %r9 MULXq %rsi, %rcx, %rax adoxq %rcx, %r9 adcxq %rdi, %rax adoxq %rdi, %rax imulq $38, %rax, %rax addq %rax, %r12 adcq %rdi, %r8 adcq %rdi, %r11 adcq %rdi, %r9 sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r12 movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx_base$7 xorq %rax, %rax movq 120(%rsp), %rdx MULXq %r12, %rbp, %rbx MULXq %r8, %rcx, %r10 adcxq %rcx, %rbx MULXq %r11, %rsi, %rcx adcxq %rsi, %r10 MULXq %r9, %rdx, %rsi adcxq %rdx, %rcx adcxq %rax, %rsi movq 128(%rsp), %rdx MULXq %r12, %r13, %rdi adoxq %r13, %rbx adcxq %rdi, %r10 MULXq %r8, %r13, %rdi adoxq %r13, %r10 adcxq %rdi, %rcx MULXq %r11, %r13, %rdi adoxq %r13, %rcx adcxq %rdi, %rsi MULXq %r9, %rdx, %rdi adoxq %rdx, %rsi adcxq %rax, %rdi adoxq %rax, %rdi movq 136(%rsp), %rdx MULXq %r12, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %rcx MULXq %r8, %r14, %r13 adoxq %r14, %rcx adcxq %r13, %rsi MULXq %r11, %r14, %r13 adoxq %r14, %rsi adcxq %r13, %rdi MULXq %r9, %rdx, %r13 adoxq %rdx, %rdi adcxq %rax, %r13 adoxq %rax, %r13 movq 144(%rsp), %rdx MULXq %r12, %r14, %r12 adoxq %r14, %rcx adcxq %r12, %rsi MULXq %r8, %r12, %r8 adoxq %r12, %rsi adcxq %r8, %rdi MULXq %r11, %r11, %r8 adoxq %r11, %rdi adcxq %r8, %r13 MULXq %r9, %rdx, %r8 adoxq %rdx, %r13 adcxq %rax, %r8 adoxq %rax, %r8 movq $38, %rdx MULXq %rsi, %r9, %rsi adoxq %r9, %rbp adcxq %rsi, %rbx MULXq %rdi, %rdi, %rsi adoxq %rdi, %rbx adcxq %rsi, %r10 MULXq %r13, %rdi, %rsi adoxq %rdi, %r10 adcxq %rsi, %rcx MULXq %r8, %rsi, %rdx adoxq %rsi, %rcx adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rbp adcq %rax, %rbx adcq %rax, %r10 adcq %rax, %rcx sbbq %rax, %rax andq $38, %rax addq %rax, %rbp movq %rbp, 152(%rsp) movq %rbx, 160(%rsp) movq %r10, 168(%rsp) movq %rcx, 176(%rsp) movl $10, %eax Ljade_scalarmult_curve25519_amd64_mulx_base$6: movl %eax, 344(%rsp) xorq %r8, %r8 movq %rbp, %rdx MULXq %rdx, %r9, %r11 MULXq %rbx, %rsi, %rax MULXq %r10, %rbp, %rdi adcxq %rbp, %rax MULXq %rcx, %rdx, %rbp adcxq %rdx, %rdi movq %rbx, %rdx MULXq %r10, %r12, %rbx adoxq %r12, %rdi adcxq %rbx, %rbp MULXq %rcx, %r12, %rbx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r10, %rdx MULXq %rcx, %r14, %r10 adcxq %r14, %rbx adoxq %r8, %rbx adcxq %r8, %r10 adoxq %r8, %r10 MULXq %rdx, %r15, %r14 movq %rcx, %rdx MULXq %rdx, %rdx, %rcx adcxq %rsi, %rsi adoxq %r11, %rsi adcxq %rax, %rax adoxq %r13, %rax adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rbx, %rbx adoxq %r14, %rbx adcxq %r10, %r10 adoxq %rdx, %r10 adcxq %r8, %rcx adoxq %r8, %rcx movq $38, %rdx MULXq %rbp, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %rsi MULXq %rbx, %rbx, %r11 adoxq %rbx, %rsi adcxq %r11, %rax MULXq %r10, %r11, %r10 adoxq %r11, %rax adcxq %r10, %rdi MULXq %rcx, %rdx, %rcx adoxq %rdx, %rdi adcxq %r8, %rcx adoxq %r8, %rcx imulq $38, %rcx, %rcx addq %rcx, %r9 adcq %r8, %rsi adcq %r8, %rax adcq %r8, %rdi sbbq %r8, %r8 andq $38, %r8 addq %r8, %r9 xorq %r8, %r8 movq %r9, %rdx MULXq %rdx, %rbp, %r9 MULXq %rsi, %rbx, %r10 MULXq %rax, %r11, %rcx adcxq %r11, %r10 MULXq %rdi, %rdx, %r11 adcxq %rdx, %rcx movq %rsi, %rdx MULXq %rax, %r12, %rsi adoxq %r12, %rcx adcxq %rsi, %r11 MULXq %rdi, %r12, %rsi adoxq %r12, %r11 MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rdi, %r14, %rax adcxq %r14, %rsi adoxq %r8, %rsi adcxq %r8, %rax adoxq %r8, %rax MULXq %rdx, %r15, %r14 movq %rdi, %rdx MULXq %rdx, %rdx, %rdi adcxq %rbx, %rbx adoxq %r9, %rbx adcxq %r10, %r10 adoxq %r13, %r10 adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %r11, %r11 adoxq %r15, %r11 adcxq %rsi, %rsi adoxq %r14, %rsi adcxq %rax, %rax adoxq %rdx, %rax adcxq %r8, %rdi adoxq %r8, %rdi movq $38, %rdx MULXq %r11, %r11, %r9 adoxq %r11, %rbp adcxq %r9, %rbx MULXq %rsi, %r9, %rsi adoxq %r9, %rbx adcxq %rsi, %r10 MULXq %rax, %rsi, %rax adoxq %rsi, %r10 adcxq %rax, %rcx MULXq %rdi, %rdx, %rax adoxq %rdx, %rcx adcxq %r8, %rax adoxq %r8, %rax imulq $38, %rax, %rax addq %rax, %rbp adcq %r8, %rbx adcq %r8, %r10 adcq %r8, %rcx sbbq %r8, %r8 andq $38, %r8 addq %r8, %rbp movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx_base$6 xorq %r9, %r9 movq 152(%rsp), %rdx MULXq %rbp, %rdi, %rax MULXq %rbx, %r8, %rsi adcxq %r8, %rax MULXq %r10, %r11, %r8 adcxq %r11, %rsi MULXq %rcx, %rdx, %r11 adcxq %rdx, %r8 adcxq %r9, %r11 movq 160(%rsp), %rdx MULXq %rbp, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rsi MULXq %rbx, %r13, %r12 adoxq %r13, %rsi adcxq %r12, %r8 MULXq %r10, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r11 MULXq %rcx, %rdx, %r12 adoxq %rdx, %r11 adcxq %r9, %r12 adoxq %r9, %r12 movq 168(%rsp), %rdx MULXq %rbp, %r14, %r13 adoxq %r14, %rsi adcxq %r13, %r8 MULXq %rbx, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %r11 MULXq %r10, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %r12 MULXq %rcx, %rdx, %r13 adoxq %rdx, %r12 adcxq %r9, %r13 adoxq %r9, %r13 movq 176(%rsp), %rdx MULXq %rbp, %r14, %rbp adoxq %r14, %r8 adcxq %rbp, %r11 MULXq %rbx, %rbp, %rbx adoxq %rbp, %r11 adcxq %rbx, %r12 MULXq %r10, %rbx, %r10 adoxq %rbx, %r12 adcxq %r10, %r13 MULXq %rcx, %rdx, %rcx adoxq %rdx, %r13 adcxq %r9, %rcx adoxq %r9, %rcx movq $38, %rdx MULXq %r11, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %rax MULXq %r12, %r11, %r10 adoxq %r11, %rax adcxq %r10, %rsi MULXq %r13, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %r8 MULXq %rcx, %rdx, %rcx adoxq %rdx, %r8 adcxq %r9, %rcx adoxq %r9, %rcx imulq $38, %rcx, %rcx addq %rcx, %rdi adcq %r9, %rax adcq %r9, %rsi adcq %r9, %r8 sbbq %r9, %r9 andq $38, %r9 addq %r9, %rdi movl $5, %ecx Ljade_scalarmult_curve25519_amd64_mulx_base$5: movl %ecx, 344(%rsp) xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %rax, %r9, %rcx MULXq %rsi, %rbp, %r10 adcxq %rbp, %rcx MULXq %r8, %rdx, %rbp adcxq %rdx, %r10 movq %rax, %rdx MULXq %rsi, %r12, %rax adoxq %r12, %r10 adcxq %rax, %rbp MULXq %r8, %r12, %rax adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rsi, %rdx MULXq %r8, %r14, %rsi adcxq %r14, %rax adoxq %r11, %rax adcxq %r11, %rsi adoxq %r11, %rsi MULXq %rdx, %r15, %r14 movq %r8, %rdx MULXq %rdx, %rdx, %r8 adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rax, %rax adoxq %r14, %rax adcxq %rsi, %rsi adoxq %rdx, %rsi adcxq %r11, %r8 adoxq %r11, %r8 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %r9 MULXq %rax, %rbx, %rax adoxq %rbx, %r9 adcxq %rax, %rcx MULXq %rsi, %rsi, %rax adoxq %rsi, %rcx adcxq %rax, %r10 MULXq %r8, %rdx, %rax adoxq %rdx, %r10 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rdi adcq %r11, %r9 adcq %r11, %rcx adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %r9, %rax, %rsi MULXq %rcx, %rbp, %r8 adcxq %rbp, %rsi MULXq %r10, %rdx, %rbp adcxq %rdx, %r8 movq %r9, %rdx MULXq %rcx, %r12, %r9 adoxq %r12, %r8 adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rcx, %rdx MULXq %r10, %r14, %rcx adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %rcx adoxq %r11, %rcx MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rax, %rax adoxq %rbx, %rax adcxq %rsi, %rsi adoxq %r13, %rsi adcxq %r8, %r8 adoxq %r12, %r8 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %rcx, %rcx adoxq %rdx, %rcx adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %rax MULXq %r9, %rbx, %r9 adoxq %rbx, %rax adcxq %r9, %rsi MULXq %rcx, %r9, %rcx adoxq %r9, %rsi adcxq %rcx, %r8 MULXq %r10, %rdx, %rcx adoxq %rdx, %r8 adcxq %r11, %rcx adoxq %r11, %rcx imulq $38, %rcx, %rcx addq %rcx, %rdi adcq %r11, %rax adcq %r11, %rsi adcq %r11, %r8 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi movl 344(%rsp), %ecx decl %ecx jne Ljade_scalarmult_curve25519_amd64_mulx_base$5 xorq %rcx, %rcx movq 120(%rsp), %rdx MULXq %rdi, %rbx, %r9 MULXq %rax, %r11, %r10 adcxq %r11, %r9 MULXq %rsi, %rbp, %r11 adcxq %rbp, %r10 MULXq %r8, %rdx, %rbp adcxq %rdx, %r11 adcxq %rcx, %rbp movq 128(%rsp), %rdx MULXq %rdi, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r10 MULXq %rax, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %r11 MULXq %rsi, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbp MULXq %r8, %rdx, %r12 adoxq %rdx, %rbp adcxq %rcx, %r12 adoxq %rcx, %r12 movq 136(%rsp), %rdx MULXq %rdi, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %r11 MULXq %rax, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rbp MULXq %rsi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r8, %rdx, %r13 adoxq %rdx, %r12 adcxq %rcx, %r13 adoxq %rcx, %r13 movq 144(%rsp), %rdx MULXq %rdi, %r14, %rdi adoxq %r14, %r11 adcxq %rdi, %rbp MULXq %rax, %rdi, %rax adoxq %rdi, %rbp adcxq %rax, %r12 MULXq %rsi, %rsi, %rax adoxq %rsi, %r12 adcxq %rax, %r13 MULXq %r8, %rdx, %rax adoxq %rdx, %r13 adcxq %rcx, %rax adoxq %rcx, %rax movq $38, %rdx MULXq %rbp, %rdi, %rsi adoxq %rdi, %rbx adcxq %rsi, %r9 MULXq %r12, %rdi, %rsi adoxq %rdi, %r9 adcxq %rsi, %r10 MULXq %r13, %rdi, %rsi adoxq %rdi, %r10 adcxq %rsi, %r11 MULXq %rax, %rdx, %rax adoxq %rdx, %r11 adcxq %rcx, %rax adoxq %rcx, %rax imulq $38, %rax, %rax addq %rax, %rbx adcq %rcx, %r9 adcq %rcx, %r10 adcq %rcx, %r11 sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rbx movq %rbx, 120(%rsp) movq %r9, 128(%rsp) movq %r10, 136(%rsp) movq %r11, 144(%rsp) movl $25, %eax Ljade_scalarmult_curve25519_amd64_mulx_base$4: movl %eax, 344(%rsp) xorq %rdi, %rdi movq %rbx, %rdx MULXq %rdx, %r8, %rbx MULXq %r9, %rcx, %rax MULXq %r10, %rbp, %rsi adcxq %rbp, %rax MULXq %r11, %rdx, %rbp adcxq %rdx, %rsi movq %r9, %rdx MULXq %r10, %r12, %r9 adoxq %r12, %rsi adcxq %r9, %rbp MULXq %r11, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r10, %rdx MULXq %r11, %r14, %r10 adcxq %r14, %r9 adoxq %rdi, %r9 adcxq %rdi, %r10 adoxq %rdi, %r10 MULXq %rdx, %r15, %r14 movq %r11, %rdx MULXq %rdx, %rdx, %r11 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rax, %rax adoxq %r13, %rax adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r10, %r10 adoxq %rdx, %r10 adcxq %rdi, %r11 adoxq %rdi, %r11 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r8 adcxq %rbx, %rcx MULXq %r9, %rbx, %r9 adoxq %rbx, %rcx adcxq %r9, %rax MULXq %r10, %r10, %r9 adoxq %r10, %rax adcxq %r9, %rsi MULXq %r11, %r9, %rdx adoxq %r9, %rsi adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %r8 adcq %rdi, %rcx adcq %rdi, %rax adcq %rdi, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r8 xorq %rdi, %rdi movq %r8, %rdx MULXq %rdx, %rbx, %r8 MULXq %rcx, %r9, %r10 MULXq %rax, %rbp, %r11 adcxq %rbp, %r10 MULXq %rsi, %rdx, %rbp adcxq %rdx, %r11 movq %rcx, %rdx MULXq %rax, %r12, %rcx adoxq %r12, %r11 adcxq %rcx, %rbp MULXq %rsi, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %rcx adoxq %rdi, %rcx adcxq %rdi, %rax adoxq %rdi, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r9, %r9 adoxq %r8, %r9 adcxq %r10, %r10 adoxq %r13, %r10 adcxq %r11, %r11 adoxq %r12, %r11 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rax, %rax adoxq %rdx, %rax adcxq %rdi, %rsi adoxq %rdi, %rsi movq $38, %rdx MULXq %rbp, %rbp, %r8 adoxq %rbp, %rbx adcxq %r8, %r9 MULXq %rcx, %r8, %rcx adoxq %r8, %r9 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %rax, %r11 MULXq %rsi, %rcx, %rax adoxq %rcx, %r11 adcxq %rdi, %rax adoxq %rdi, %rax imulq $38, %rax, %rax addq %rax, %rbx adcq %rdi, %r9 adcq %rdi, %r10 adcq %rdi, %r11 sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rbx movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx_base$4 xorq %r8, %r8 movq 120(%rsp), %rdx MULXq %rbx, %rdi, %rsi MULXq %r9, %rax, %rcx adcxq %rax, %rsi MULXq %r10, %rbp, %rax adcxq %rbp, %rcx MULXq %r11, %rdx, %rbp adcxq %rdx, %rax adcxq %r8, %rbp movq 128(%rsp), %rdx MULXq %rbx, %r13, %r12 adoxq %r13, %rsi adcxq %r12, %rcx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rax MULXq %r10, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rbp MULXq %r11, %rdx, %r12 adoxq %rdx, %rbp adcxq %r8, %r12 adoxq %r8, %r12 movq 136(%rsp), %rdx MULXq %rbx, %r14, %r13 adoxq %r14, %rcx adcxq %r13, %rax MULXq %r9, %r14, %r13 adoxq %r14, %rax adcxq %r13, %rbp MULXq %r10, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r11, %rdx, %r13 adoxq %rdx, %r12 adcxq %r8, %r13 adoxq %r8, %r13 movq 144(%rsp), %rdx MULXq %rbx, %r14, %rbx adoxq %r14, %rax adcxq %rbx, %rbp MULXq %r9, %rbx, %r9 adoxq %rbx, %rbp adcxq %r9, %r12 MULXq %r10, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %r11, %rdx, %r9 adoxq %rdx, %r13 adcxq %r8, %r9 adoxq %r8, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %rsi MULXq %r12, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r13, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rax MULXq %r9, %r9, %rdx adoxq %r9, %rax adcxq %r8, %rdx adoxq %r8, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %r8, %rsi adcq %r8, %rcx adcq %r8, %rax sbbq %r8, %r8 andq $38, %r8 addq %r8, %rdi movq %rdi, 152(%rsp) movq %rsi, 160(%rsp) movq %rcx, 168(%rsp) movq %rax, 176(%rsp) movl $50, %edx Ljade_scalarmult_curve25519_amd64_mulx_base$3: movl %edx, 344(%rsp) xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %rsi, %r9, %r8 MULXq %rcx, %rbp, %r10 adcxq %rbp, %r8 MULXq %rax, %rdx, %rbp adcxq %rdx, %r10 movq %rsi, %rdx MULXq %rcx, %r12, %rsi adoxq %r12, %r10 adcxq %rsi, %rbp MULXq %rax, %r12, %rsi adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rcx, %rdx MULXq %rax, %r14, %rcx adcxq %r14, %rsi adoxq %r11, %rsi adcxq %r11, %rcx adoxq %r11, %rcx MULXq %rdx, %r15, %r14 movq %rax, %rdx MULXq %rdx, %rdx, %rax adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %r8, %r8 adoxq %r13, %r8 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rsi, %rsi adoxq %r14, %rsi adcxq %rcx, %rcx adoxq %rdx, %rcx adcxq %r11, %rax adoxq %r11, %rax movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %r9 MULXq %rsi, %rbx, %rsi adoxq %rbx, %r9 adcxq %rsi, %r8 MULXq %rcx, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rdi adcq %r11, %r9 adcq %r11, %r8 adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %r9, %rsi, %rcx MULXq %r8, %rbp, %rax adcxq %rbp, %rcx MULXq %r10, %rdx, %rbp adcxq %rdx, %rax movq %r9, %rdx MULXq %r8, %r12, %r9 adoxq %r12, %rax adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r10, %r14, %r8 adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %r8 adoxq %r11, %r8 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rsi, %rsi adoxq %rbx, %rsi adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %rax, %rax adoxq %r12, %rax adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %rsi MULXq %r9, %rbx, %r9 adoxq %rbx, %rsi adcxq %r9, %rcx MULXq %r8, %r9, %r8 adoxq %r9, %rcx adcxq %r8, %rax MULXq %r10, %r8, %rdx adoxq %r8, %rax adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %r11, %rsi adcq %r11, %rcx adcq %r11, %rax sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi movl 344(%rsp), %edx decl %edx jne Ljade_scalarmult_curve25519_amd64_mulx_base$3 xorq %rbx, %rbx movq 152(%rsp), %rdx MULXq %rdi, %r9, %r8 MULXq %rsi, %r11, %r10 adcxq %r11, %r8 MULXq %rcx, %rbp, %r11 adcxq %rbp, %r10 MULXq %rax, %rdx, %rbp adcxq %rdx, %r11 adcxq %rbx, %rbp movq 160(%rsp), %rdx MULXq %rdi, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r10 MULXq %rsi, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %r11 MULXq %rcx, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbp MULXq %rax, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 168(%rsp), %rdx MULXq %rdi, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %r11 MULXq %rsi, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rbp MULXq %rcx, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rax, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 176(%rsp), %rdx MULXq %rdi, %r14, %rdi adoxq %r14, %r11 adcxq %rdi, %rbp MULXq %rsi, %rdi, %rsi adoxq %rdi, %rbp adcxq %rsi, %r12 MULXq %rcx, %rsi, %rcx adoxq %rsi, %r12 adcxq %rcx, %r13 MULXq %rax, %rcx, %rax adoxq %rcx, %r13 adcxq %rbx, %rax adoxq %rbx, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r8 MULXq %r12, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r10 MULXq %r13, %rsi, %rcx adoxq %rsi, %r10 adcxq %rcx, %r11 MULXq %rax, %rcx, %rax adoxq %rcx, %r11 adcxq %rbx, %rax adoxq %rbx, %rax imulq $38, %rax, %rax addq %rax, %r9 adcq %rbx, %r8 adcq %rbx, %r10 adcq %rbx, %r11 sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %r9 movl $25, %eax Ljade_scalarmult_curve25519_amd64_mulx_base$2: movl %eax, 344(%rsp) xorq %rdi, %rdi movq %r9, %rdx MULXq %rdx, %r9, %rbx MULXq %r8, %rcx, %rax MULXq %r10, %rbp, %rsi adcxq %rbp, %rax MULXq %r11, %rdx, %rbp adcxq %rdx, %rsi movq %r8, %rdx MULXq %r10, %r12, %r8 adoxq %r12, %rsi adcxq %r8, %rbp MULXq %r11, %r12, %r8 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r10, %rdx MULXq %r11, %r14, %r10 adcxq %r14, %r8 adoxq %rdi, %r8 adcxq %rdi, %r10 adoxq %rdi, %r10 MULXq %rdx, %r15, %r14 movq %r11, %rdx MULXq %rdx, %rdx, %r11 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rax, %rax adoxq %r13, %rax adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r8, %r8 adoxq %r14, %r8 adcxq %r10, %r10 adoxq %rdx, %r10 adcxq %rdi, %r11 adoxq %rdi, %r11 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r9 adcxq %rbx, %rcx MULXq %r8, %rbx, %r8 adoxq %rbx, %rcx adcxq %r8, %rax MULXq %r10, %r10, %r8 adoxq %r10, %rax adcxq %r8, %rsi MULXq %r11, %r8, %rdx adoxq %r8, %rsi adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %r9 adcq %rdi, %rcx adcq %rdi, %rax adcq %rdi, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r9 xorq %rdi, %rdi movq %r9, %rdx MULXq %rdx, %r9, %rbx MULXq %rcx, %r8, %r10 MULXq %rax, %rbp, %r11 adcxq %rbp, %r10 MULXq %rsi, %rdx, %rbp adcxq %rdx, %r11 movq %rcx, %rdx MULXq %rax, %r12, %rcx adoxq %r12, %r11 adcxq %rcx, %rbp MULXq %rsi, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %rcx adoxq %rdi, %rcx adcxq %rdi, %rax adoxq %rdi, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r8, %r8 adoxq %rbx, %r8 adcxq %r10, %r10 adoxq %r13, %r10 adcxq %r11, %r11 adoxq %r12, %r11 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rax, %rax adoxq %rdx, %rax adcxq %rdi, %rsi adoxq %rdi, %rsi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r9 adcxq %rbx, %r8 MULXq %rcx, %rbx, %rcx adoxq %rbx, %r8 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %rax, %r11 MULXq %rsi, %rcx, %rax adoxq %rcx, %r11 adcxq %rdi, %rax adoxq %rdi, %rax imulq $38, %rax, %rax addq %rax, %r9 adcq %rdi, %r8 adcq %rdi, %r10 adcq %rdi, %r11 sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r9 movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx_base$2 xorq %rdi, %rdi movq 120(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r8, %rax, %rbx adcxq %rax, %rcx MULXq %r10, %rbp, %rax adcxq %rbp, %rbx MULXq %r11, %rdx, %rbp adcxq %rdx, %rax adcxq %rdi, %rbp movq 128(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rbx MULXq %r8, %r13, %r12 adoxq %r13, %rbx adcxq %r12, %rax MULXq %r10, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rbp MULXq %r11, %rdx, %r12 adoxq %rdx, %rbp adcxq %rdi, %r12 adoxq %rdi, %r12 movq 136(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %rax MULXq %r8, %r14, %r13 adoxq %r14, %rax adcxq %r13, %rbp MULXq %r10, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r11, %rdx, %r13 adoxq %rdx, %r12 adcxq %rdi, %r13 adoxq %rdi, %r13 movq 144(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %rax adcxq %r9, %rbp MULXq %r8, %r9, %r8 adoxq %r9, %rbp adcxq %r8, %r12 MULXq %r10, %r9, %r8 adoxq %r9, %r12 adcxq %r8, %r13 MULXq %r11, %rdx, %r8 adoxq %rdx, %r13 adcxq %rdi, %r8 adoxq %rdi, %r8 movq $38, %rdx MULXq %rbp, %r10, %r9 adoxq %r10, %rsi adcxq %r9, %rcx MULXq %r12, %r10, %r9 adoxq %r10, %rcx adcxq %r9, %rbx MULXq %r13, %r10, %r9 adoxq %r10, %rbx adcxq %r9, %rax MULXq %r8, %r8, %rdx adoxq %r8, %rax adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rdi, %rcx adcq %rdi, %rbx adcq %rdi, %rax sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rsi movl $2, %edx Ljade_scalarmult_curve25519_amd64_mulx_base$1: movl %edx, 344(%rsp) xorq %r10, %r10 movq %rsi, %rdx MULXq %rdx, %rsi, %r11 MULXq %rcx, %r8, %rdi MULXq %rbx, %rbp, %r9 adcxq %rbp, %rdi MULXq %rax, %rdx, %rbp adcxq %rdx, %r9 movq %rcx, %rdx MULXq %rbx, %r12, %rcx adoxq %r12, %r9 adcxq %rcx, %rbp MULXq %rax, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rbx, %rdx MULXq %rax, %r14, %rbx adcxq %r14, %rcx adoxq %r10, %rcx adcxq %r10, %rbx adoxq %r10, %rbx MULXq %rdx, %r15, %r14 movq %rax, %rdx MULXq %rdx, %rdx, %rax adcxq %r8, %r8 adoxq %r11, %r8 adcxq %rdi, %rdi adoxq %r13, %rdi adcxq %r9, %r9 adoxq %r12, %r9 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rbx, %rbx adoxq %rdx, %rbx adcxq %r10, %rax adoxq %r10, %rax movq $38, %rdx MULXq %rbp, %rbp, %r11 adoxq %rbp, %rsi adcxq %r11, %r8 MULXq %rcx, %r11, %rcx adoxq %r11, %r8 adcxq %rcx, %rdi MULXq %rbx, %r11, %rcx adoxq %r11, %rdi adcxq %rcx, %r9 MULXq %rax, %rcx, %rax adoxq %rcx, %r9 adcxq %r10, %rax adoxq %r10, %rax imulq $38, %rax, %rax addq %rax, %rsi adcq %r10, %r8 adcq %r10, %rdi adcq %r10, %r9 sbbq %r10, %r10 andq $38, %r10 addq %r10, %rsi xorq %r10, %r10 movq %rsi, %rdx MULXq %rdx, %rsi, %r11 MULXq %r8, %rcx, %rbx MULXq %rdi, %rbp, %rax adcxq %rbp, %rbx MULXq %r9, %rdx, %rbp adcxq %rdx, %rax movq %r8, %rdx MULXq %rdi, %r12, %r8 adoxq %r12, %rax adcxq %r8, %rbp MULXq %r9, %r12, %r8 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rdi, %rdx MULXq %r9, %r14, %rdi adcxq %r14, %r8 adoxq %r10, %r8 adcxq %r10, %rdi adoxq %r10, %rdi MULXq %rdx, %r15, %r14 movq %r9, %rdx MULXq %rdx, %rdx, %r9 adcxq %rcx, %rcx adoxq %r11, %rcx adcxq %rbx, %rbx adoxq %r13, %rbx adcxq %rax, %rax adoxq %r12, %rax adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r8, %r8 adoxq %r14, %r8 adcxq %rdi, %rdi adoxq %rdx, %rdi adcxq %r10, %r9 adoxq %r10, %r9 movq $38, %rdx MULXq %rbp, %rbp, %r11 adoxq %rbp, %rsi adcxq %r11, %rcx MULXq %r8, %r11, %r8 adoxq %r11, %rcx adcxq %r8, %rbx MULXq %rdi, %r8, %rdi adoxq %r8, %rbx adcxq %rdi, %rax MULXq %r9, %rdi, %rdx adoxq %rdi, %rax adcxq %r10, %rdx adoxq %r10, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %r10, %rcx adcq %r10, %rbx adcq %r10, %rax sbbq %r10, %r10 andq $38, %r10 addq %r10, %rsi movl 344(%rsp), %edx decl %edx jne Ljade_scalarmult_curve25519_amd64_mulx_base$1 xorq %r8, %r8 movq %rsi, %rdx MULXq %rdx, %rsi, %r9 MULXq %rcx, %r10, %rdi MULXq %rbx, %rbp, %r11 adcxq %rbp, %rdi MULXq %rax, %rdx, %rbp adcxq %rdx, %r11 movq %rcx, %rdx MULXq %rbx, %r12, %rcx adoxq %r12, %r11 adcxq %rcx, %rbp MULXq %rax, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rbx, %rdx MULXq %rax, %r14, %rbx adcxq %r14, %rcx adoxq %r8, %rcx adcxq %r8, %rbx adoxq %r8, %rbx MULXq %rdx, %r15, %r14 movq %rax, %rdx MULXq %rdx, %rdx, %rax adcxq %r10, %r10 adoxq %r9, %r10 adcxq %rdi, %rdi adoxq %r13, %rdi adcxq %r11, %r11 adoxq %r12, %r11 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rbx, %rbx adoxq %rdx, %rbx adcxq %r8, %rax adoxq %r8, %rax movq $38, %rdx MULXq %rbp, %rbp, %r9 adoxq %rbp, %rsi adcxq %r9, %r10 MULXq %rcx, %r9, %rcx adoxq %r9, %r10 adcxq %rcx, %rdi MULXq %rbx, %r9, %rcx adoxq %r9, %rdi adcxq %rcx, %r11 MULXq %rax, %rcx, %rax adoxq %rcx, %r11 adcxq %r8, %rax adoxq %r8, %rax imulq $38, %rax, %rax addq %rax, %rsi adcq %r8, %r10 adcq %r8, %rdi adcq %r8, %r11 sbbq %r8, %r8 andq $38, %r8 addq %r8, %rsi xorq %rbx, %rbx movq 88(%rsp), %rdx MULXq %rsi, %rcx, %rax MULXq %r10, %r9, %r8 adcxq %r9, %rax MULXq %rdi, %rbp, %r9 adcxq %rbp, %r8 MULXq %r11, %rdx, %rbp adcxq %rdx, %r9 adcxq %rbx, %rbp movq 96(%rsp), %rdx MULXq %rsi, %r13, %r12 adoxq %r13, %rax adcxq %r12, %r8 MULXq %r10, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r9 MULXq %rdi, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %rbp MULXq %r11, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 104(%rsp), %rdx MULXq %rsi, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %r9 MULXq %r10, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %rbp MULXq %rdi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r11, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 112(%rsp), %rdx MULXq %rsi, %r14, %rsi adoxq %r14, %r9 adcxq %rsi, %rbp MULXq %r10, %r10, %rsi adoxq %r10, %rbp adcxq %rsi, %r12 MULXq %rdi, %rdi, %rsi adoxq %rdi, %r12 adcxq %rsi, %r13 MULXq %r11, %rdx, %rsi adoxq %rdx, %r13 adcxq %rbx, %rsi adoxq %rbx, %rsi movq $38, %rdx MULXq %rbp, %r10, %rdi adoxq %r10, %rcx adcxq %rdi, %rax MULXq %r12, %r10, %rdi adoxq %r10, %rax adcxq %rdi, %r8 MULXq %r13, %r10, %rdi adoxq %r10, %r8 adcxq %rdi, %r9 MULXq %rsi, %rsi, %rdx adoxq %rsi, %r9 adcxq %rbx, %rdx adoxq %rbx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rcx adcq %rbx, %rax adcq %rbx, %r8 adcq %rbx, %r9 sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %rcx xorq %rsi, %rsi movq 56(%rsp), %rdx MULXq %rcx, %r10, %rdi MULXq %rax, %rbx, %r11 adcxq %rbx, %rdi MULXq %r8, %rbp, %rbx adcxq %rbp, %r11 MULXq %r9, %rdx, %rbp adcxq %rdx, %rbx adcxq %rsi, %rbp movq 64(%rsp), %rdx MULXq %rcx, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r11 MULXq %rax, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbx MULXq %r8, %r13, %r12 adoxq %r13, %rbx adcxq %r12, %rbp MULXq %r9, %rdx, %r12 adoxq %rdx, %rbp adcxq %rsi, %r12 adoxq %rsi, %r12 movq 72(%rsp), %rdx MULXq %rcx, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rbx MULXq %rax, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %rbp MULXq %r8, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r9, %rdx, %r13 adoxq %rdx, %r12 adcxq %rsi, %r13 adoxq %rsi, %r13 movq 80(%rsp), %rdx MULXq %rcx, %r14, %rcx adoxq %r14, %rbx adcxq %rcx, %rbp MULXq %rax, %rcx, %rax adoxq %rcx, %rbp adcxq %rax, %r12 MULXq %r8, %rcx, %rax adoxq %rcx, %r12 adcxq %rax, %r13 MULXq %r9, %rcx, %rax adoxq %rcx, %r13 adcxq %rsi, %rax adoxq %rsi, %rax movq $38, %rdx MULXq %rbp, %r8, %rcx adoxq %r8, %r10 adcxq %rcx, %rdi MULXq %r12, %r8, %rcx adoxq %r8, %rdi adcxq %rcx, %r11 MULXq %r13, %r8, %rcx adoxq %r8, %r11 adcxq %rcx, %rbx MULXq %rax, %rcx, %rax adoxq %rcx, %rbx adcxq %rsi, %rax adoxq %rsi, %rax imulq $38, %rax, %rax addq %rax, %r10 adcq %rsi, %rdi adcq %rsi, %r11 adcq %rsi, %rbx sbbq %rsi, %rsi andq $38, %rsi addq %rsi, %r10 leaq (%rbx,%rbx), %rax sarq $63, %rbx shrq $1, %rax andq $19, %rbx addq $19, %rbx addq %rbx, %r10 adcq $0, %rdi adcq $0, %r11 adcq $0, %rax leaq (%rax,%rax), %rcx sarq $63, %rax shrq $1, %rcx notq %rax andq $19, %rax subq %rax, %r10 sbbq $0, %rdi sbbq $0, %r11 sbbq $0, %rcx movq (%rsp), %rax movq %r10, (%rax) movq %rdi, 8(%rax) movq %r11, 16(%rax) movq %rcx, 24(%rax) xorq %rax, %rax movq 352(%rsp), %rbx movq 360(%rsp), %rbp movq 368(%rsp), %r12 movq 376(%rsp), %r13 movq 384(%rsp), %r14 movq 392(%rsp), %r15 movq 400(%rsp), %rsp ret _jade_scalarmult_curve25519_amd64_mulx: jade_scalarmult_curve25519_amd64_mulx: movq %rsp, %rax leaq -408(%rsp), %rsp andq $-8, %rsp movq %rax, 400(%rsp) movq %rbx, 352(%rsp) movq %rbp, 360(%rsp) movq %r12, 368(%rsp) movq %r13, 376(%rsp) movq %r14, 384(%rsp) movq %r15, 392(%rsp) movq %rdi, (%rsp) movq (%rsi), %rax movq %rax, 24(%rsp) movq 8(%rsi), %rax movq %rax, 32(%rsp) movq 16(%rsi), %rax movq %rax, 40(%rsp) movq 24(%rsi), %rax movq %rax, 48(%rsp) andb $-8, 24(%rsp) andb $127, 55(%rsp) orb $64, 55(%rsp) movq (%rdx), %rcx movq 8(%rdx), %r8 movq 16(%rdx), %r10 movq 24(%rdx), %rdx movq $9223372036854775807, %rax andq %rax, %rdx xorq %r11, %r11 movq $1, 56(%rsp) movq $0, %rdi movq %rcx, 88(%rsp) movq %r8, 96(%rsp) movq %r10, 104(%rsp) movq %rdx, 112(%rsp) movq $1, 120(%rsp) movq %r11, 64(%rsp) movq %r11, %r9 movq %r11, 128(%rsp) movq %r11, 72(%rsp) movq %r11, %rax movq %r11, 136(%rsp) movq %r11, 80(%rsp) movq %r11, %rsi movq %r11, 144(%rsp) movq %rcx, 152(%rsp) movq %r8, 160(%rsp) movq %r10, 168(%rsp) movq %rdx, 176(%rsp) movq $255, %rcx movq $0, 8(%rsp) Ljade_scalarmult_curve25519_amd64_mulx$9: addq $-1, %rcx movq %rcx, 16(%rsp) movq %rcx, %rdx shrq $3, %rdx movzbq 24(%rsp,%rdx), %rdx andq $7, %rcx shrq %cl, %rdx andq $1, %rdx movq 8(%rsp), %r8 xorq %rdx, %r8 xorq %rcx, %rcx subq %r8, %rcx movq 120(%rsp), %r8 movq 128(%rsp), %r10 movq 136(%rsp), %r11 movq 144(%rsp), %rbx movq %rdi, %rbp movq %r9, %r12 movq %rax, %r13 movq %rsi, %r14 xorq %r8, %rbp xorq %r10, %r12 xorq %r11, %r13 xorq %rbx, %r14 andq %rcx, %rbp andq %rcx, %r12 andq %rcx, %r13 andq %rcx, %r14 xorq %rbp, %rdi xorq %rbp, %r8 movq %r8, 120(%rsp) xorq %r12, %r9 xorq %r12, %r10 movq %r10, 128(%rsp) xorq %r13, %rax xorq %r13, %r11 movq %r11, 136(%rsp) xorq %r14, %rsi xorq %r14, %rbx movq %rbx, 144(%rsp) movq 88(%rsp), %r11 movq 96(%rsp), %rbx movq 104(%rsp), %r8 movq 112(%rsp), %r10 movq 56(%rsp), %rbp movq %r11, %r12 xorq %rbp, %r12 andq %rcx, %r12 xorq %r12, %rbp xorq %r12, %r11 movq %rbp, 56(%rsp) movq %r11, 88(%rsp) movq 64(%rsp), %r11 movq %rbx, %rbp xorq %r11, %rbp andq %rcx, %rbp xorq %rbp, %r11 xorq %rbp, %rbx movq %r11, 64(%rsp) movq %rbx, 96(%rsp) movq 72(%rsp), %r11 movq %r8, %rbx xorq %r11, %rbx andq %rcx, %rbx xorq %rbx, %r11 xorq %rbx, %r8 movq %r11, 72(%rsp) movq %r8, 104(%rsp) movq 80(%rsp), %r8 movq %r10, %r11 xorq %r8, %r11 andq %rcx, %r11 xorq %r11, %r8 xorq %r11, %r10 movq %r8, 80(%rsp) movq %r10, 112(%rsp) movq %rdx, 8(%rsp) xorq %rcx, %rcx movq 56(%rsp), %rdx movq 64(%rsp), %r8 movq 72(%rsp), %r10 movq 80(%rsp), %r11 subq %rdi, %rdx sbbq %r9, %r8 sbbq %rax, %r10 sbbq %rsi, %r11 sbbq %rcx, %rcx andq $38, %rcx subq %rcx, %rdx sbbq $0, %r8 sbbq $0, %r10 sbbq $0, %r11 sbbq %rcx, %rcx andq $38, %rcx subq %rcx, %rdx movq %rdx, 184(%rsp) movq %r8, 192(%rsp) movq %r10, 200(%rsp) movq %r11, 208(%rsp) xorq %rcx, %rcx addq 56(%rsp), %rdi adcq 64(%rsp), %r9 adcq 72(%rsp), %rax adcq 80(%rsp), %rsi sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rdi adcq $0, %r9 adcq $0, %rax adcq $0, %rsi sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rdi movq %rdi, 216(%rsp) movq %r9, 224(%rsp) movq %rax, 232(%rsp) movq %rsi, 240(%rsp) movq 88(%rsp), %rax movq 96(%rsp), %rcx movq 104(%rsp), %rdx movq 112(%rsp), %rsi xorq %rdi, %rdi subq 120(%rsp), %rax sbbq 128(%rsp), %rcx sbbq 136(%rsp), %rdx sbbq 144(%rsp), %rsi sbbq %rdi, %rdi andq $38, %rdi subq %rdi, %rax sbbq $0, %rcx sbbq $0, %rdx sbbq $0, %rsi sbbq %rdi, %rdi andq $38, %rdi subq %rdi, %rax movq %rax, 248(%rsp) movq %rcx, 256(%rsp) movq %rdx, 264(%rsp) movq %rsi, 272(%rsp) movq 88(%rsp), %rax movq 96(%rsp), %rcx movq 104(%rsp), %rdx movq 112(%rsp), %rsi xorq %rdi, %rdi addq 120(%rsp), %rax adcq 128(%rsp), %rcx adcq 136(%rsp), %rdx adcq 144(%rsp), %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax adcq $0, %rcx adcq $0, %rdx adcq $0, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax movq %rax, 280(%rsp) movq %rcx, 288(%rsp) movq %rdx, 296(%rsp) movq %rsi, 304(%rsp) movq 248(%rsp), %r9 movq 256(%rsp), %r10 movq 264(%rsp), %r11 movq 272(%rsp), %rbx xorq %rax, %rax movq 216(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r10, %r8, %rdi adcxq %r8, %rcx MULXq %r11, %rbp, %r8 adcxq %rbp, %rdi MULXq %rbx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 224(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r8 MULXq %r11, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 232(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r8 MULXq %r10, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 240(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %r8 adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rax, %r9 adoxq %rax, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r12, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %r13, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r8 MULXq %r9, %r9, %rdx adoxq %r9, %r8 adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rax, %rcx adcq %rax, %rdi adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 248(%rsp) movq %rcx, 256(%rsp) movq %rdi, 264(%rsp) movq %r8, 272(%rsp) movq 184(%rsp), %r9 movq 192(%rsp), %r10 movq 200(%rsp), %r11 movq 208(%rsp), %rbx xorq %rax, %rax movq 280(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r10, %r8, %rdi adcxq %r8, %rcx MULXq %r11, %rbp, %r8 adcxq %rbp, %rdi MULXq %rbx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 288(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r8 MULXq %r11, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 296(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r8 MULXq %r10, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 304(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %r8 adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rax, %r9 adoxq %rax, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r12, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %r13, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r8 MULXq %r9, %r9, %rdx adoxq %r9, %r8 adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rax, %rcx adcq %rax, %rdi adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 280(%rsp) movq %rcx, 288(%rsp) movq %rdi, 296(%rsp) movq %r8, 304(%rsp) movq 216(%rsp), %rdx movq 224(%rsp), %r11 movq 232(%rsp), %r13 movq 240(%rsp), %rbx xorq %rax, %rax MULXq %rdx, %rsi, %rcx MULXq %r11, %r8, %rdi MULXq %r13, %r10, %r9 adcxq %r10, %rdi MULXq %rbx, %rdx, %r10 adcxq %rdx, %r9 movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %rax, %r11 adcxq %rax, %r13 adoxq %rax, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %r8, %r8 adoxq %rcx, %r8 adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %rax, %rbx adoxq %rax, %rbx movq $38, %rdx MULXq %r10, %r10, %rcx adoxq %r10, %rsi adcxq %rcx, %r8 MULXq %r11, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %rdi MULXq %r13, %r10, %rcx adoxq %r10, %rdi adcxq %rcx, %r9 MULXq %rbx, %rdx, %rcx adoxq %rdx, %r9 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rsi adcq %rax, %r8 adcq %rax, %rdi adcq %rax, %r9 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 216(%rsp) movq %r8, 224(%rsp) movq %rdi, 232(%rsp) movq %r9, 240(%rsp) movq 184(%rsp), %rdx movq 192(%rsp), %r11 movq 200(%rsp), %r13 movq 208(%rsp), %rbx xorq %r8, %r8 MULXq %rdx, %rax, %r9 MULXq %r11, %rsi, %rcx MULXq %r13, %r10, %rdi adcxq %r10, %rcx MULXq %rbx, %rdx, %r10 adcxq %rdx, %rdi movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %rdi adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %r8, %r11 adcxq %r8, %r13 adoxq %r8, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %rsi, %rsi adoxq %r9, %rsi adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rdi, %rdi adoxq %rbp, %rdi adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %r8, %rbx adoxq %r8, %rbx movq $38, %rdx MULXq %r10, %r10, %r9 adoxq %r10, %rax adcxq %r9, %rsi MULXq %r11, %r10, %r9 adoxq %r10, %rsi adcxq %r9, %rcx MULXq %r13, %r10, %r9 adoxq %r10, %rcx adcxq %r9, %rdi MULXq %rbx, %r9, %rdx adoxq %r9, %rdi adcxq %r8, %rdx adoxq %r8, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %r8, %rsi adcq %r8, %rcx adcq %r8, %rdi sbbq %r8, %r8 andq $38, %r8 addq %r8, %rax movq 248(%rsp), %rdx movq 256(%rsp), %r8 movq 264(%rsp), %r9 movq 272(%rsp), %r10 xorq %r11, %r11 addq 280(%rsp), %rdx adcq 288(%rsp), %r8 adcq 296(%rsp), %r9 adcq 304(%rsp), %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdx adcq $0, %r8 adcq $0, %r9 adcq $0, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdx movq %rdx, 184(%rsp) movq %r8, 192(%rsp) movq %r9, 200(%rsp) movq %r10, 208(%rsp) movq 248(%rsp), %rdx movq 256(%rsp), %r8 movq 264(%rsp), %r9 movq 272(%rsp), %r10 xorq %r11, %r11 subq 280(%rsp), %rdx sbbq 288(%rsp), %r8 sbbq 296(%rsp), %r9 sbbq 304(%rsp), %r10 sbbq %r11, %r11 andq $38, %r11 subq %r11, %rdx sbbq $0, %r8 sbbq $0, %r9 sbbq $0, %r10 sbbq %r11, %r11 andq $38, %r11 subq %r11, %rdx movq %rdx, 280(%rsp) movq %r8, 288(%rsp) movq %r9, 296(%rsp) movq %r10, 304(%rsp) xorq %rdx, %rdx movq 216(%rsp), %r8 movq 224(%rsp), %r9 movq 232(%rsp), %r10 movq 240(%rsp), %r11 subq %rax, %r8 sbbq %rsi, %r9 sbbq %rcx, %r10 sbbq %rdi, %r11 sbbq %rdx, %rdx andq $38, %rdx subq %rdx, %r8 sbbq $0, %r9 sbbq $0, %r10 sbbq $0, %r11 sbbq %rdx, %rdx andq $38, %rdx subq %rdx, %r8 movq %r8, 248(%rsp) movq %r9, 256(%rsp) movq %r10, 264(%rsp) movq %r11, 272(%rsp) xorq %r8, %r8 movq 216(%rsp), %rdx MULXq %rax, %r10, %r9 MULXq %rsi, %rbx, %r11 adcxq %rbx, %r9 MULXq %rcx, %rbp, %rbx adcxq %rbp, %r11 MULXq %rdi, %rdx, %rbp adcxq %rdx, %rbx adcxq %r8, %rbp movq 224(%rsp), %rdx MULXq %rax, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r11 MULXq %rsi, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbx MULXq %rcx, %r13, %r12 adoxq %r13, %rbx adcxq %r12, %rbp MULXq %rdi, %rdx, %r12 adoxq %rdx, %rbp adcxq %r8, %r12 adoxq %r8, %r12 movq 232(%rsp), %rdx MULXq %rax, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rbx MULXq %rsi, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %rbp MULXq %rcx, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rdi, %rdx, %r13 adoxq %rdx, %r12 adcxq %r8, %r13 adoxq %r8, %r13 movq 240(%rsp), %rdx MULXq %rax, %r14, %rax adoxq %r14, %rbx adcxq %rax, %rbp MULXq %rsi, %rsi, %rax adoxq %rsi, %rbp adcxq %rax, %r12 MULXq %rcx, %rcx, %rax adoxq %rcx, %r12 adcxq %rax, %r13 MULXq %rdi, %rcx, %rax adoxq %rcx, %r13 adcxq %r8, %rax adoxq %r8, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %r10 adcxq %rcx, %r9 MULXq %r12, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r11 MULXq %r13, %rsi, %rcx adoxq %rsi, %r11 adcxq %rcx, %rbx MULXq %rax, %rcx, %rax adoxq %rcx, %rbx adcxq %r8, %rax adoxq %r8, %rax imulq $38, %rax, %rax addq %rax, %r10 adcq %r8, %r9 adcq %r8, %r11 adcq %r8, %rbx sbbq %r8, %r8 andq $38, %r8 addq %r8, %r10 movq %r10, 56(%rsp) movq %r9, 64(%rsp) movq %r11, 72(%rsp) movq %rbx, 80(%rsp) movq 280(%rsp), %rdx movq 288(%rsp), %r11 movq 296(%rsp), %r13 movq 304(%rsp), %rbx xorq %rax, %rax MULXq %rdx, %rsi, %rcx MULXq %r11, %r8, %rdi MULXq %r13, %r10, %r9 adcxq %r10, %rdi MULXq %rbx, %rdx, %r10 adcxq %rdx, %r9 movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %rax, %r11 adcxq %rax, %r13 adoxq %rax, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %r8, %r8 adoxq %rcx, %r8 adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %rax, %rbx adoxq %rax, %rbx movq $38, %rdx MULXq %r10, %r10, %rcx adoxq %r10, %rsi adcxq %rcx, %r8 MULXq %r11, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %rdi MULXq %r13, %r10, %rcx adoxq %r10, %rdi adcxq %rcx, %r9 MULXq %rbx, %rdx, %rcx adoxq %rdx, %r9 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rsi adcq %rax, %r8 adcq %rax, %rdi adcq %rax, %r9 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 280(%rsp) movq %r8, 288(%rsp) movq %rdi, 296(%rsp) movq %r9, 304(%rsp) movq $121665, %rdx MULXq 248(%rsp), %rcx, %rax MULXq 256(%rsp), %rdi, %rsi addq %rdi, %rax MULXq 264(%rsp), %r8, %rdi adcq %r8, %rsi MULXq 272(%rsp), %r9, %r8 adcq %r9, %rdi adcq $0, %r8 imulq $38, %r8, %r8 addq %r8, %rcx adcq $0, %rax adcq $0, %rsi adcq $0, %rdi sbbq %rdx, %rdx andq $38, %rdx addq %rdx, %rcx movq %rcx, 312(%rsp) movq %rax, 320(%rsp) movq %rsi, 328(%rsp) movq %rdi, 336(%rsp) movq 184(%rsp), %rdx movq 192(%rsp), %r11 movq 200(%rsp), %r13 movq 208(%rsp), %rbx xorq %rax, %rax MULXq %rdx, %rsi, %rcx MULXq %r11, %r8, %rdi MULXq %r13, %r10, %r9 adcxq %r10, %rdi MULXq %rbx, %rdx, %r10 adcxq %rdx, %r9 movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %rax, %r11 adcxq %rax, %r13 adoxq %rax, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %r8, %r8 adoxq %rcx, %r8 adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %rax, %rbx adoxq %rax, %rbx movq $38, %rdx MULXq %r10, %r10, %rcx adoxq %r10, %rsi adcxq %rcx, %r8 MULXq %r11, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %rdi MULXq %r13, %r10, %rcx adoxq %r10, %rdi adcxq %rcx, %r9 MULXq %rbx, %rdx, %rcx adoxq %rdx, %r9 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rsi adcq %rax, %r8 adcq %rax, %rdi adcq %rax, %r9 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 88(%rsp) movq %r8, 96(%rsp) movq %rdi, 104(%rsp) movq %r9, 112(%rsp) movq 216(%rsp), %rax movq 224(%rsp), %rcx movq 232(%rsp), %rdx movq 240(%rsp), %rsi xorq %rdi, %rdi addq 312(%rsp), %rax adcq 320(%rsp), %rcx adcq 328(%rsp), %rdx adcq 336(%rsp), %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax adcq $0, %rcx adcq $0, %rdx adcq $0, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax movq %rax, 312(%rsp) movq %rcx, 320(%rsp) movq %rdx, 328(%rsp) movq %rsi, 336(%rsp) movq 280(%rsp), %r9 movq 288(%rsp), %r10 movq 296(%rsp), %r11 movq 304(%rsp), %rbx xorq %rax, %rax movq 152(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r10, %r8, %rdi adcxq %r8, %rcx MULXq %r11, %rbp, %r8 adcxq %rbp, %rdi MULXq %rbx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 160(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r8 MULXq %r11, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 168(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r8 MULXq %r10, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 176(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %r8 adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rax, %r9 adoxq %rax, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r12, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %r13, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r8 MULXq %r9, %r9, %rdx adoxq %r9, %r8 adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rax, %rcx adcq %rax, %rdi adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 120(%rsp) movq %rcx, 128(%rsp) movq %rdi, 136(%rsp) movq %r8, 144(%rsp) movq 312(%rsp), %r8 movq 320(%rsp), %r10 movq 328(%rsp), %r11 movq 336(%rsp), %rbx xorq %rcx, %rcx movq 248(%rsp), %rdx MULXq %r8, %rdi, %r9 MULXq %r10, %rsi, %rax adcxq %rsi, %r9 MULXq %r11, %rbp, %rsi adcxq %rbp, %rax MULXq %rbx, %rdx, %rbp adcxq %rdx, %rsi adcxq %rcx, %rbp movq 256(%rsp), %rdx MULXq %r8, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %rax MULXq %r10, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rsi MULXq %r11, %r13, %r12 adoxq %r13, %rsi adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rcx, %r12 adoxq %rcx, %r12 movq 264(%rsp), %rdx MULXq %r8, %r14, %r13 adoxq %r14, %rax adcxq %r13, %rsi MULXq %r10, %r14, %r13 adoxq %r14, %rsi adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rcx, %r13 adoxq %rcx, %r13 movq 272(%rsp), %rdx MULXq %r8, %r14, %r8 adoxq %r14, %rsi adcxq %r8, %rbp MULXq %r10, %r10, %r8 adoxq %r10, %rbp adcxq %r8, %r12 MULXq %r11, %r10, %r8 adoxq %r10, %r12 adcxq %r8, %r13 MULXq %rbx, %rdx, %r8 adoxq %rdx, %r13 adcxq %rcx, %r8 adoxq %rcx, %r8 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r9 MULXq %r12, %r11, %r10 adoxq %r11, %r9 adcxq %r10, %rax MULXq %r13, %r11, %r10 adoxq %r11, %rax adcxq %r10, %rsi MULXq %r8, %r8, %rdx adoxq %r8, %rsi adcxq %rcx, %rdx adoxq %rcx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %rcx, %r9 adcq %rcx, %rax adcq %rcx, %rsi sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rdi movq 16(%rsp), %rcx cmpq $0, %rcx jnbe Ljade_scalarmult_curve25519_amd64_mulx$9 movq %rdi, 120(%rsp) movq %r9, 128(%rsp) movq %rax, 136(%rsp) movq %rsi, 144(%rsp) xorq %r10, %r10 movq %rdi, %rdx MULXq %rdx, %r11, %rbx MULXq %r9, %r8, %rdi MULXq %rax, %rbp, %rcx adcxq %rbp, %rdi MULXq %rsi, %rdx, %rbp adcxq %rdx, %rcx movq %r9, %rdx MULXq %rax, %r12, %r9 adoxq %r12, %rcx adcxq %r9, %rbp MULXq %rsi, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %r9 adoxq %r10, %r9 adcxq %r10, %rax adoxq %r10, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r8, %r8 adoxq %rbx, %r8 adcxq %rdi, %rdi adoxq %r13, %rdi adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %rax, %rax adoxq %rdx, %rax adcxq %r10, %rsi adoxq %r10, %rsi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r11 adcxq %rbx, %r8 MULXq %r9, %rbx, %r9 adoxq %rbx, %r8 adcxq %r9, %rdi MULXq %rax, %r9, %rax adoxq %r9, %rdi adcxq %rax, %rcx MULXq %rsi, %rdx, %rax adoxq %rdx, %rcx adcxq %r10, %rax adoxq %r10, %rax imulq $38, %rax, %rax addq %rax, %r11 adcq %r10, %r8 adcq %r10, %rdi adcq %r10, %rcx sbbq %r10, %r10 andq $38, %r10 addq %r10, %r11 movq %r11, 88(%rsp) movq %r8, 96(%rsp) movq %rdi, 104(%rsp) movq %rcx, 112(%rsp) xorq %rsi, %rsi movq %r11, %rdx MULXq %rdx, %r9, %rbx MULXq %r8, %r11, %r10 MULXq %rdi, %rbp, %rax adcxq %rbp, %r10 MULXq %rcx, %rdx, %rbp adcxq %rdx, %rax movq %r8, %rdx MULXq %rdi, %r12, %r8 adoxq %r12, %rax adcxq %r8, %rbp MULXq %rcx, %r12, %r8 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rdi, %rdx MULXq %rcx, %r14, %rdi adcxq %r14, %r8 adoxq %rsi, %r8 adcxq %rsi, %rdi adoxq %rsi, %rdi MULXq %rdx, %r15, %r14 movq %rcx, %rdx MULXq %rdx, %rdx, %rcx adcxq %r11, %r11 adoxq %rbx, %r11 adcxq %r10, %r10 adoxq %r13, %r10 adcxq %rax, %rax adoxq %r12, %rax adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r8, %r8 adoxq %r14, %r8 adcxq %rdi, %rdi adoxq %rdx, %rdi adcxq %rsi, %rcx adoxq %rsi, %rcx movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r9 adcxq %rbx, %r11 MULXq %r8, %rbx, %r8 adoxq %rbx, %r11 adcxq %r8, %r10 MULXq %rdi, %r8, %rdi adoxq %r8, %r10 adcxq %rdi, %rax MULXq %rcx, %rdx, %rcx adoxq %rdx, %rax adcxq %rsi, %rcx adoxq %rsi, %rcx imulq $38, %rcx, %rcx addq %rcx, %r9 adcq %rsi, %r11 adcq %rsi, %r10 adcq %rsi, %rax sbbq %rsi, %rsi andq $38, %rsi addq %rsi, %r9 xorq %rcx, %rcx movq %r9, %rdx MULXq %rdx, %rsi, %rbx MULXq %r11, %r8, %rdi MULXq %r10, %rbp, %r9 adcxq %rbp, %rdi MULXq %rax, %rdx, %rbp adcxq %rdx, %r9 movq %r11, %rdx MULXq %r10, %r12, %r11 adoxq %r12, %r9 adcxq %r11, %rbp MULXq %rax, %r12, %r11 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r10, %rdx MULXq %rax, %r14, %r10 adcxq %r14, %r11 adoxq %rcx, %r11 adcxq %rcx, %r10 adoxq %rcx, %r10 MULXq %rdx, %r15, %r14 movq %rax, %rdx MULXq %rdx, %rdx, %rax adcxq %r8, %r8 adoxq %rbx, %r8 adcxq %rdi, %rdi adoxq %r13, %rdi adcxq %r9, %r9 adoxq %r12, %r9 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r10, %r10 adoxq %rdx, %r10 adcxq %rcx, %rax adoxq %rcx, %rax movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rsi adcxq %rbx, %r8 MULXq %r11, %rbx, %r11 adoxq %rbx, %r8 adcxq %r11, %rdi MULXq %r10, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r9 MULXq %rax, %rdx, %rax adoxq %rdx, %r9 adcxq %rcx, %rax adoxq %rcx, %rax imulq $38, %rax, %rax addq %rax, %rsi adcq %rcx, %r8 adcq %rcx, %rdi adcq %rcx, %r9 sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rsi xorq %r10, %r10 movq 120(%rsp), %rdx MULXq %rsi, %rbx, %r11 MULXq %r8, %rcx, %rax adcxq %rcx, %r11 MULXq %rdi, %rbp, %rcx adcxq %rbp, %rax MULXq %r9, %rdx, %rbp adcxq %rdx, %rcx adcxq %r10, %rbp movq 128(%rsp), %rdx MULXq %rsi, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rax MULXq %r8, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rcx MULXq %rdi, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rbp MULXq %r9, %rdx, %r12 adoxq %rdx, %rbp adcxq %r10, %r12 adoxq %r10, %r12 movq 136(%rsp), %rdx MULXq %rsi, %r14, %r13 adoxq %r14, %rax adcxq %r13, %rcx MULXq %r8, %r14, %r13 adoxq %r14, %rcx adcxq %r13, %rbp MULXq %rdi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r9, %rdx, %r13 adoxq %rdx, %r12 adcxq %r10, %r13 adoxq %r10, %r13 movq 144(%rsp), %rdx MULXq %rsi, %r14, %rsi adoxq %r14, %rcx adcxq %rsi, %rbp MULXq %r8, %r8, %rsi adoxq %r8, %rbp adcxq %rsi, %r12 MULXq %rdi, %rdi, %rsi adoxq %rdi, %r12 adcxq %rsi, %r13 MULXq %r9, %rdx, %rsi adoxq %rdx, %r13 adcxq %r10, %rsi adoxq %r10, %rsi movq $38, %rdx MULXq %rbp, %r8, %rdi adoxq %r8, %rbx adcxq %rdi, %r11 MULXq %r12, %r8, %rdi adoxq %r8, %r11 adcxq %rdi, %rax MULXq %r13, %r8, %rdi adoxq %r8, %rax adcxq %rdi, %rcx MULXq %rsi, %rsi, %rdx adoxq %rsi, %rcx adcxq %r10, %rdx adoxq %r10, %rdx imulq $38, %rdx, %rdx addq %rdx, %rbx adcq %r10, %r11 adcq %r10, %rax adcq %r10, %rcx sbbq %r10, %r10 andq $38, %r10 addq %r10, %rbx movq %rbx, 120(%rsp) movq %r11, 128(%rsp) movq %rax, 136(%rsp) movq %rcx, 144(%rsp) xorq %rsi, %rsi movq 88(%rsp), %rdx MULXq %rbx, %rdi, %r10 MULXq %r11, %r8, %r9 adcxq %r8, %r10 MULXq %rax, %rbp, %r8 adcxq %rbp, %r9 MULXq %rcx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rsi, %rbp movq 96(%rsp), %rdx MULXq %rbx, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %r9 MULXq %r11, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r8 MULXq %rax, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rcx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rsi, %r12 adoxq %rsi, %r12 movq 104(%rsp), %rdx MULXq %rbx, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %r8 MULXq %r11, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %rax, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rcx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rsi, %r13 adoxq %rsi, %r13 movq 112(%rsp), %rdx MULXq %rbx, %r14, %rbx adoxq %r14, %r8 adcxq %rbx, %rbp MULXq %r11, %rbx, %r11 adoxq %rbx, %rbp adcxq %r11, %r12 MULXq %rax, %r11, %rax adoxq %r11, %r12 adcxq %rax, %r13 MULXq %rcx, %rcx, %rax adoxq %rcx, %r13 adcxq %rsi, %rax adoxq %rsi, %rax movq $38, %rdx MULXq %rbp, %r11, %rcx adoxq %r11, %rdi adcxq %rcx, %r10 MULXq %r12, %r11, %rcx adoxq %r11, %r10 adcxq %rcx, %r9 MULXq %r13, %r11, %rcx adoxq %r11, %r9 adcxq %rcx, %r8 MULXq %rax, %rcx, %rax adoxq %rcx, %r8 adcxq %rsi, %rax adoxq %rsi, %rax imulq $38, %rax, %rax addq %rax, %rdi adcq %rsi, %r10 adcq %rsi, %r9 adcq %rsi, %r8 sbbq %rsi, %rsi andq $38, %rsi addq %rsi, %rdi movq %rdi, 88(%rsp) movq %r10, 96(%rsp) movq %r9, 104(%rsp) movq %r8, 112(%rsp) xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rax, %rbx MULXq %r10, %rsi, %rcx MULXq %r9, %rbp, %rdi adcxq %rbp, %rcx MULXq %r8, %rdx, %rbp adcxq %rdx, %rdi movq %r10, %rdx MULXq %r9, %r12, %r10 adoxq %r12, %rdi adcxq %r10, %rbp MULXq %r8, %r12, %r10 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r9, %rdx MULXq %r8, %r14, %r9 adcxq %r14, %r10 adoxq %r11, %r10 adcxq %r11, %r9 adoxq %r11, %r9 MULXq %rdx, %r15, %r14 movq %r8, %rdx MULXq %rdx, %rdx, %r8 adcxq %rsi, %rsi adoxq %rbx, %rsi adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r10, %r10 adoxq %r14, %r10 adcxq %r9, %r9 adoxq %rdx, %r9 adcxq %r11, %r8 adoxq %r11, %r8 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rax adcxq %rbx, %rsi MULXq %r10, %rbx, %r10 adoxq %rbx, %rsi adcxq %r10, %rcx MULXq %r9, %r10, %r9 adoxq %r10, %rcx adcxq %r9, %rdi MULXq %r8, %r8, %rdx adoxq %r8, %rdi adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %r11, %rsi adcq %r11, %rcx adcq %r11, %rdi sbbq %r11, %r11 andq $38, %r11 addq %r11, %rax xorq %r11, %r11 movq 120(%rsp), %rdx MULXq %rax, %rbx, %r10 MULXq %rsi, %r9, %r8 adcxq %r9, %r10 MULXq %rcx, %rbp, %r9 adcxq %rbp, %r8 MULXq %rdi, %rdx, %rbp adcxq %rdx, %r9 adcxq %r11, %rbp movq 128(%rsp), %rdx MULXq %rax, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %r8 MULXq %rsi, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r9 MULXq %rcx, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %rbp MULXq %rdi, %rdx, %r12 adoxq %rdx, %rbp adcxq %r11, %r12 adoxq %r11, %r12 movq 136(%rsp), %rdx MULXq %rax, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %r9 MULXq %rsi, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %rbp MULXq %rcx, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rdi, %rdx, %r13 adoxq %rdx, %r12 adcxq %r11, %r13 adoxq %r11, %r13 movq 144(%rsp), %rdx MULXq %rax, %r14, %rax adoxq %r14, %r9 adcxq %rax, %rbp MULXq %rsi, %rsi, %rax adoxq %rsi, %rbp adcxq %rax, %r12 MULXq %rcx, %rcx, %rax adoxq %rcx, %r12 adcxq %rax, %r13 MULXq %rdi, %rcx, %rax adoxq %rcx, %r13 adcxq %r11, %rax adoxq %r11, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %rbx adcxq %rcx, %r10 MULXq %r12, %rsi, %rcx adoxq %rsi, %r10 adcxq %rcx, %r8 MULXq %r13, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r9 MULXq %rax, %rcx, %rax adoxq %rcx, %r9 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rbx adcq %r11, %r10 adcq %r11, %r8 adcq %r11, %r9 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rbx movq %rbx, 120(%rsp) movq %r10, 128(%rsp) movq %r8, 136(%rsp) movq %r9, 144(%rsp) xorq %r11, %r11 movq %rbx, %rdx MULXq %rdx, %rdi, %rbx MULXq %r10, %rax, %rsi MULXq %r8, %rbp, %rcx adcxq %rbp, %rsi MULXq %r9, %rdx, %rbp adcxq %rdx, %rcx movq %r10, %rdx MULXq %r8, %r12, %r10 adoxq %r12, %rcx adcxq %r10, %rbp MULXq %r9, %r12, %r10 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r9, %r14, %r8 adcxq %r14, %r10 adoxq %r11, %r10 adcxq %r11, %r8 adoxq %r11, %r8 MULXq %rdx, %r15, %r14 movq %r9, %rdx MULXq %rdx, %rdx, %r9 adcxq %rax, %rax adoxq %rbx, %rax adcxq %rsi, %rsi adoxq %r13, %rsi adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r10, %r10 adoxq %r14, %r10 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %r11, %r9 adoxq %r11, %r9 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %rax MULXq %r10, %rbx, %r10 adoxq %rbx, %rax adcxq %r10, %rsi MULXq %r8, %r10, %r8 adoxq %r10, %rsi adcxq %r8, %rcx MULXq %r9, %r8, %rdx adoxq %r8, %rcx adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %r11, %rax adcq %r11, %rsi adcq %r11, %rcx sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi movl $2, %edx Ljade_scalarmult_curve25519_amd64_mulx$8: movl %edx, 344(%rsp) xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %rax, %r9, %r8 MULXq %rsi, %rbp, %r10 adcxq %rbp, %r8 MULXq %rcx, %rdx, %rbp adcxq %rdx, %r10 movq %rax, %rdx MULXq %rsi, %r12, %rax adoxq %r12, %r10 adcxq %rax, %rbp MULXq %rcx, %r12, %rax adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rsi, %rdx MULXq %rcx, %r14, %rsi adcxq %r14, %rax adoxq %r11, %rax adcxq %r11, %rsi adoxq %r11, %rsi MULXq %rdx, %r15, %r14 movq %rcx, %rdx MULXq %rdx, %rdx, %rcx adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %r8, %r8 adoxq %r13, %r8 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rax, %rax adoxq %r14, %rax adcxq %rsi, %rsi adoxq %rdx, %rsi adcxq %r11, %rcx adoxq %r11, %rcx movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %r9 MULXq %rax, %rbx, %rax adoxq %rbx, %r9 adcxq %rax, %r8 MULXq %rsi, %rsi, %rax adoxq %rsi, %r8 adcxq %rax, %r10 MULXq %rcx, %rcx, %rax adoxq %rcx, %r10 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rdi adcq %r11, %r9 adcq %r11, %r8 adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %r9, %rax, %rsi MULXq %r8, %rbp, %rcx adcxq %rbp, %rsi MULXq %r10, %rdx, %rbp adcxq %rdx, %rcx movq %r9, %rdx MULXq %r8, %r12, %r9 adoxq %r12, %rcx adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r10, %r14, %r8 adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %r8 adoxq %r11, %r8 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rax, %rax adoxq %rbx, %rax adcxq %rsi, %rsi adoxq %r13, %rsi adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %rax MULXq %r9, %rbx, %r9 adoxq %rbx, %rax adcxq %r9, %rsi MULXq %r8, %r9, %r8 adoxq %r9, %rsi adcxq %r8, %rcx MULXq %r10, %r8, %rdx adoxq %r8, %rcx adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %r11, %rax adcq %r11, %rsi adcq %r11, %rcx sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi movl 344(%rsp), %edx decl %edx jne Ljade_scalarmult_curve25519_amd64_mulx$8 xorq %rbx, %rbx movq 120(%rsp), %rdx MULXq %rdi, %r8, %r11 MULXq %rax, %r10, %r9 adcxq %r10, %r11 MULXq %rsi, %rbp, %r10 adcxq %rbp, %r9 MULXq %rcx, %rdx, %rbp adcxq %rdx, %r10 adcxq %rbx, %rbp movq 128(%rsp), %rdx MULXq %rdi, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %r9 MULXq %rax, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r10 MULXq %rsi, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %rbp MULXq %rcx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 136(%rsp), %rdx MULXq %rdi, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %r10 MULXq %rax, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %rbp MULXq %rsi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rcx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 144(%rsp), %rdx MULXq %rdi, %r14, %rdi adoxq %r14, %r10 adcxq %rdi, %rbp MULXq %rax, %rdi, %rax adoxq %rdi, %rbp adcxq %rax, %r12 MULXq %rsi, %rsi, %rax adoxq %rsi, %r12 adcxq %rax, %r13 MULXq %rcx, %rcx, %rax adoxq %rcx, %r13 adcxq %rbx, %rax adoxq %rbx, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r11 MULXq %r12, %rsi, %rcx adoxq %rsi, %r11 adcxq %rcx, %r9 MULXq %r13, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %rbx, %rax adoxq %rbx, %rax imulq $38, %rax, %rax addq %rax, %r8 adcq %rbx, %r11 adcq %rbx, %r9 adcq %rbx, %r10 sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %r8 movq %r8, 120(%rsp) movq %r11, 128(%rsp) movq %r9, 136(%rsp) movq %r10, 144(%rsp) movl $5, %eax Ljade_scalarmult_curve25519_amd64_mulx$7: movl %eax, 344(%rsp) xorq %rdi, %rdi movq %r8, %rdx MULXq %rdx, %r8, %rbx MULXq %r11, %rcx, %rax MULXq %r9, %rbp, %rsi adcxq %rbp, %rax MULXq %r10, %rdx, %rbp adcxq %rdx, %rsi movq %r11, %rdx MULXq %r9, %r12, %r11 adoxq %r12, %rsi adcxq %r11, %rbp MULXq %r10, %r12, %r11 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r9, %rdx MULXq %r10, %r14, %r9 adcxq %r14, %r11 adoxq %rdi, %r11 adcxq %rdi, %r9 adoxq %rdi, %r9 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rax, %rax adoxq %r13, %rax adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r9, %r9 adoxq %rdx, %r9 adcxq %rdi, %r10 adoxq %rdi, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r8 adcxq %rbx, %rcx MULXq %r11, %rbx, %r11 adoxq %rbx, %rcx adcxq %r11, %rax MULXq %r9, %r11, %r9 adoxq %r11, %rax adcxq %r9, %rsi MULXq %r10, %r9, %rdx adoxq %r9, %rsi adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %r8 adcq %rdi, %rcx adcq %rdi, %rax adcq %rdi, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r8 xorq %rdi, %rdi movq %r8, %rdx MULXq %rdx, %r8, %rbx MULXq %rcx, %r11, %r9 MULXq %rax, %rbp, %r10 adcxq %rbp, %r9 MULXq %rsi, %rdx, %rbp adcxq %rdx, %r10 movq %rcx, %rdx MULXq %rax, %r12, %rcx adoxq %r12, %r10 adcxq %rcx, %rbp MULXq %rsi, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %rcx adoxq %rdi, %rcx adcxq %rdi, %rax adoxq %rdi, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r11, %r11 adoxq %rbx, %r11 adcxq %r9, %r9 adoxq %r13, %r9 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rax, %rax adoxq %rdx, %rax adcxq %rdi, %rsi adoxq %rdi, %rsi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r8 adcxq %rbx, %r11 MULXq %rcx, %rbx, %rcx adoxq %rbx, %r11 adcxq %rcx, %r9 MULXq %rax, %rcx, %rax adoxq %rcx, %r9 adcxq %rax, %r10 MULXq %rsi, %rcx, %rax adoxq %rcx, %r10 adcxq %rdi, %rax adoxq %rdi, %rax imulq $38, %rax, %rax addq %rax, %r8 adcq %rdi, %r11 adcq %rdi, %r9 adcq %rdi, %r10 sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r8 movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx$7 xorq %rbx, %rbx movq 120(%rsp), %rdx MULXq %r8, %rax, %rcx MULXq %r11, %rsi, %rdi adcxq %rsi, %rcx MULXq %r9, %rbp, %rsi adcxq %rbp, %rdi MULXq %r10, %rdx, %rbp adcxq %rdx, %rsi adcxq %rbx, %rbp movq 128(%rsp), %rdx MULXq %r8, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r11, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %rsi MULXq %r9, %r13, %r12 adoxq %r13, %rsi adcxq %r12, %rbp MULXq %r10, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 136(%rsp), %rdx MULXq %r8, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %rsi MULXq %r11, %r14, %r13 adoxq %r14, %rsi adcxq %r13, %rbp MULXq %r9, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r10, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 144(%rsp), %rdx MULXq %r8, %r14, %r8 adoxq %r14, %rsi adcxq %r8, %rbp MULXq %r11, %r11, %r8 adoxq %r11, %rbp adcxq %r8, %r12 MULXq %r9, %r9, %r8 adoxq %r9, %r12 adcxq %r8, %r13 MULXq %r10, %rdx, %r8 adoxq %rdx, %r13 adcxq %rbx, %r8 adoxq %rbx, %r8 movq $38, %rdx MULXq %rbp, %r10, %r9 adoxq %r10, %rax adcxq %r9, %rcx MULXq %r12, %r10, %r9 adoxq %r10, %rcx adcxq %r9, %rdi MULXq %r13, %r10, %r9 adoxq %r10, %rdi adcxq %r9, %rsi MULXq %r8, %r8, %rdx adoxq %r8, %rsi adcxq %rbx, %rdx adoxq %rbx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %rbx, %rcx adcq %rbx, %rdi adcq %rbx, %rsi sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %rax movq %rax, 152(%rsp) movq %rcx, 160(%rsp) movq %rdi, 168(%rsp) movq %rsi, 176(%rsp) movl $10, %edx Ljade_scalarmult_curve25519_amd64_mulx$6: movl %edx, 344(%rsp) xorq %r11, %r11 movq %rax, %rdx MULXq %rdx, %rax, %rbx MULXq %rcx, %r9, %r8 MULXq %rdi, %rbp, %r10 adcxq %rbp, %r8 MULXq %rsi, %rdx, %rbp adcxq %rdx, %r10 movq %rcx, %rdx MULXq %rdi, %r12, %rcx adoxq %r12, %r10 adcxq %rcx, %rbp MULXq %rsi, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rdi, %rdx MULXq %rsi, %r14, %rdi adcxq %r14, %rcx adoxq %r11, %rcx adcxq %r11, %rdi adoxq %r11, %rdi MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %r8, %r8 adoxq %r13, %r8 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rdi, %rdi adoxq %rdx, %rdi adcxq %r11, %rsi adoxq %r11, %rsi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rax adcxq %rbx, %r9 MULXq %rcx, %rbx, %rcx adoxq %rbx, %r9 adcxq %rcx, %r8 MULXq %rdi, %rdi, %rcx adoxq %rdi, %r8 adcxq %rcx, %r10 MULXq %rsi, %rdx, %rcx adoxq %rdx, %r10 adcxq %r11, %rcx adoxq %r11, %rcx imulq $38, %rcx, %rcx addq %rcx, %rax adcq %r11, %r9 adcq %r11, %r8 adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rax xorq %r11, %r11 movq %rax, %rdx MULXq %rdx, %rax, %rbx MULXq %r9, %rcx, %rdi MULXq %r8, %rbp, %rsi adcxq %rbp, %rdi MULXq %r10, %rdx, %rbp adcxq %rdx, %rsi movq %r9, %rdx MULXq %r8, %r12, %r9 adoxq %r12, %rsi adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r10, %r14, %r8 adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %r8 adoxq %r11, %r8 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rdi, %rdi adoxq %r13, %rdi adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rax adcxq %rbx, %rcx MULXq %r9, %rbx, %r9 adoxq %rbx, %rcx adcxq %r9, %rdi MULXq %r8, %r9, %r8 adoxq %r9, %rdi adcxq %r8, %rsi MULXq %r10, %r8, %rdx adoxq %r8, %rsi adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %r11, %rcx adcq %r11, %rdi adcq %r11, %rsi sbbq %r11, %r11 andq $38, %r11 addq %r11, %rax movl 344(%rsp), %edx decl %edx jne Ljade_scalarmult_curve25519_amd64_mulx$6 xorq %rbx, %rbx movq 152(%rsp), %rdx MULXq %rax, %r11, %r9 MULXq %rcx, %r10, %r8 adcxq %r10, %r9 MULXq %rdi, %rbp, %r10 adcxq %rbp, %r8 MULXq %rsi, %rdx, %rbp adcxq %rdx, %r10 adcxq %rbx, %rbp movq 160(%rsp), %rdx MULXq %rax, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r8 MULXq %rcx, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r10 MULXq %rdi, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %rbp MULXq %rsi, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 168(%rsp), %rdx MULXq %rax, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %r10 MULXq %rcx, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %rbp MULXq %rdi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rsi, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 176(%rsp), %rdx MULXq %rax, %r14, %rax adoxq %r14, %r10 adcxq %rax, %rbp MULXq %rcx, %rcx, %rax adoxq %rcx, %rbp adcxq %rax, %r12 MULXq %rdi, %rcx, %rax adoxq %rcx, %r12 adcxq %rax, %r13 MULXq %rsi, %rcx, %rax adoxq %rcx, %r13 adcxq %rbx, %rax adoxq %rbx, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %r11 adcxq %rcx, %r9 MULXq %r12, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r8 MULXq %r13, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %rbx, %rax adoxq %rbx, %rax imulq $38, %rax, %rax addq %rax, %r11 adcq %rbx, %r9 adcq %rbx, %r8 adcq %rbx, %r10 sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %r11 movl $5, %eax Ljade_scalarmult_curve25519_amd64_mulx$5: movl %eax, 344(%rsp) xorq %rdi, %rdi movq %r11, %rdx MULXq %rdx, %r11, %rbx MULXq %r9, %rcx, %rax MULXq %r8, %rbp, %rsi adcxq %rbp, %rax MULXq %r10, %rdx, %rbp adcxq %rdx, %rsi movq %r9, %rdx MULXq %r8, %r12, %r9 adoxq %r12, %rsi adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r10, %r14, %r8 adcxq %r14, %r9 adoxq %rdi, %r9 adcxq %rdi, %r8 adoxq %rdi, %r8 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rax, %rax adoxq %r13, %rax adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %rdi, %r10 adoxq %rdi, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r11 adcxq %rbx, %rcx MULXq %r9, %rbx, %r9 adoxq %rbx, %rcx adcxq %r9, %rax MULXq %r8, %r9, %r8 adoxq %r9, %rax adcxq %r8, %rsi MULXq %r10, %r8, %rdx adoxq %r8, %rsi adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %r11 adcq %rdi, %rcx adcq %rdi, %rax adcq %rdi, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r11 xorq %rdi, %rdi movq %r11, %rdx MULXq %rdx, %r11, %rbx MULXq %rcx, %r9, %r8 MULXq %rax, %rbp, %r10 adcxq %rbp, %r8 MULXq %rsi, %rdx, %rbp adcxq %rdx, %r10 movq %rcx, %rdx MULXq %rax, %r12, %rcx adoxq %r12, %r10 adcxq %rcx, %rbp MULXq %rsi, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %rcx adoxq %rdi, %rcx adcxq %rdi, %rax adoxq %rdi, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %r8, %r8 adoxq %r13, %r8 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rax, %rax adoxq %rdx, %rax adcxq %rdi, %rsi adoxq %rdi, %rsi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r11 adcxq %rbx, %r9 MULXq %rcx, %rbx, %rcx adoxq %rbx, %r9 adcxq %rcx, %r8 MULXq %rax, %rcx, %rax adoxq %rcx, %r8 adcxq %rax, %r10 MULXq %rsi, %rcx, %rax adoxq %rcx, %r10 adcxq %rdi, %rax adoxq %rdi, %rax imulq $38, %rax, %rax addq %rax, %r11 adcq %rdi, %r9 adcq %rdi, %r8 adcq %rdi, %r10 sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r11 movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx$5 xorq %rbx, %rbx movq 120(%rsp), %rdx MULXq %r11, %rsi, %rax MULXq %r9, %rcx, %rdi adcxq %rcx, %rax MULXq %r8, %rbp, %rcx adcxq %rbp, %rdi MULXq %r10, %rdx, %rbp adcxq %rdx, %rcx adcxq %rbx, %rbp movq 128(%rsp), %rdx MULXq %r11, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rdi MULXq %r9, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %rcx MULXq %r8, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rbp MULXq %r10, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 136(%rsp), %rdx MULXq %r11, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %rcx MULXq %r9, %r14, %r13 adoxq %r14, %rcx adcxq %r13, %rbp MULXq %r8, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r10, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 144(%rsp), %rdx MULXq %r11, %r14, %r11 adoxq %r14, %rcx adcxq %r11, %rbp MULXq %r9, %r11, %r9 adoxq %r11, %rbp adcxq %r9, %r12 MULXq %r8, %r9, %r8 adoxq %r9, %r12 adcxq %r8, %r13 MULXq %r10, %rdx, %r8 adoxq %rdx, %r13 adcxq %rbx, %r8 adoxq %rbx, %r8 movq $38, %rdx MULXq %rbp, %r10, %r9 adoxq %r10, %rsi adcxq %r9, %rax MULXq %r12, %r10, %r9 adoxq %r10, %rax adcxq %r9, %rdi MULXq %r13, %r10, %r9 adoxq %r10, %rdi adcxq %r9, %rcx MULXq %r8, %r8, %rdx adoxq %r8, %rcx adcxq %rbx, %rdx adoxq %rbx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rbx, %rax adcq %rbx, %rdi adcq %rbx, %rcx sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %rsi movq %rsi, 120(%rsp) movq %rax, 128(%rsp) movq %rdi, 136(%rsp) movq %rcx, 144(%rsp) movl $25, %edx Ljade_scalarmult_curve25519_amd64_mulx$4: movl %edx, 344(%rsp) xorq %r11, %r11 movq %rsi, %rdx MULXq %rdx, %rsi, %rbx MULXq %rax, %r9, %r8 MULXq %rdi, %rbp, %r10 adcxq %rbp, %r8 MULXq %rcx, %rdx, %rbp adcxq %rdx, %r10 movq %rax, %rdx MULXq %rdi, %r12, %rax adoxq %r12, %r10 adcxq %rax, %rbp MULXq %rcx, %r12, %rax adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rdi, %rdx MULXq %rcx, %r14, %rdi adcxq %r14, %rax adoxq %r11, %rax adcxq %r11, %rdi adoxq %r11, %rdi MULXq %rdx, %r15, %r14 movq %rcx, %rdx MULXq %rdx, %rdx, %rcx adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %r8, %r8 adoxq %r13, %r8 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rax, %rax adoxq %r14, %rax adcxq %rdi, %rdi adoxq %rdx, %rdi adcxq %r11, %rcx adoxq %r11, %rcx movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rsi adcxq %rbx, %r9 MULXq %rax, %rbx, %rax adoxq %rbx, %r9 adcxq %rax, %r8 MULXq %rdi, %rdi, %rax adoxq %rdi, %r8 adcxq %rax, %r10 MULXq %rcx, %rcx, %rax adoxq %rcx, %r10 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rsi adcq %r11, %r9 adcq %r11, %r8 adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rsi xorq %r11, %r11 movq %rsi, %rdx MULXq %rdx, %rsi, %rbx MULXq %r9, %rax, %rdi MULXq %r8, %rbp, %rcx adcxq %rbp, %rdi MULXq %r10, %rdx, %rbp adcxq %rdx, %rcx movq %r9, %rdx MULXq %r8, %r12, %r9 adoxq %r12, %rcx adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r10, %r14, %r8 adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %r8 adoxq %r11, %r8 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rax, %rax adoxq %rbx, %rax adcxq %rdi, %rdi adoxq %r13, %rdi adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rsi adcxq %rbx, %rax MULXq %r9, %rbx, %r9 adoxq %rbx, %rax adcxq %r9, %rdi MULXq %r8, %r9, %r8 adoxq %r9, %rdi adcxq %r8, %rcx MULXq %r10, %r8, %rdx adoxq %r8, %rcx adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %r11, %rax adcq %r11, %rdi adcq %r11, %rcx sbbq %r11, %r11 andq $38, %r11 addq %r11, %rsi movl 344(%rsp), %edx decl %edx jne Ljade_scalarmult_curve25519_amd64_mulx$4 xorq %r11, %r11 movq 120(%rsp), %rdx MULXq %rsi, %rbp, %r9 MULXq %rax, %r8, %r10 adcxq %r8, %r9 MULXq %rdi, %rbx, %r8 adcxq %rbx, %r10 MULXq %rcx, %rdx, %rbx adcxq %rdx, %r8 adcxq %r11, %rbx movq 128(%rsp), %rdx MULXq %rsi, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r10 MULXq %rax, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %r8 MULXq %rdi, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbx MULXq %rcx, %rdx, %r12 adoxq %rdx, %rbx adcxq %r11, %r12 adoxq %r11, %r12 movq 136(%rsp), %rdx MULXq %rsi, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %r8 MULXq %rax, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbx MULXq %rdi, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %r12 MULXq %rcx, %rdx, %r13 adoxq %rdx, %r12 adcxq %r11, %r13 adoxq %r11, %r13 movq 144(%rsp), %rdx MULXq %rsi, %r14, %rsi adoxq %r14, %r8 adcxq %rsi, %rbx MULXq %rax, %rsi, %rax adoxq %rsi, %rbx adcxq %rax, %r12 MULXq %rdi, %rsi, %rax adoxq %rsi, %r12 adcxq %rax, %r13 MULXq %rcx, %rcx, %rax adoxq %rcx, %r13 adcxq %r11, %rax adoxq %r11, %rax movq $38, %rdx MULXq %rbx, %rsi, %rcx adoxq %rsi, %rbp adcxq %rcx, %r9 MULXq %r12, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r10 MULXq %r13, %rsi, %rcx adoxq %rsi, %r10 adcxq %rcx, %r8 MULXq %rax, %rcx, %rax adoxq %rcx, %r8 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rbp adcq %r11, %r9 adcq %r11, %r10 adcq %r11, %r8 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rbp movq %rbp, 152(%rsp) movq %r9, 160(%rsp) movq %r10, 168(%rsp) movq %r8, 176(%rsp) movl $50, %eax Ljade_scalarmult_curve25519_amd64_mulx$3: movl %eax, 344(%rsp) xorq %rdi, %rdi movq %rbp, %rdx MULXq %rdx, %r11, %rbx MULXq %r9, %rcx, %rax MULXq %r10, %rbp, %rsi adcxq %rbp, %rax MULXq %r8, %rdx, %rbp adcxq %rdx, %rsi movq %r9, %rdx MULXq %r10, %r12, %r9 adoxq %r12, %rsi adcxq %r9, %rbp MULXq %r8, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r10, %rdx MULXq %r8, %r14, %r10 adcxq %r14, %r9 adoxq %rdi, %r9 adcxq %rdi, %r10 adoxq %rdi, %r10 MULXq %rdx, %r15, %r14 movq %r8, %rdx MULXq %rdx, %rdx, %r8 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rax, %rax adoxq %r13, %rax adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r10, %r10 adoxq %rdx, %r10 adcxq %rdi, %r8 adoxq %rdi, %r8 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r11 adcxq %rbx, %rcx MULXq %r9, %rbx, %r9 adoxq %rbx, %rcx adcxq %r9, %rax MULXq %r10, %r10, %r9 adoxq %r10, %rax adcxq %r9, %rsi MULXq %r8, %r8, %rdx adoxq %r8, %rsi adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %r11 adcq %rdi, %rcx adcq %rdi, %rax adcq %rdi, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r11 xorq %rdi, %rdi movq %r11, %rdx MULXq %rdx, %rbp, %r11 MULXq %rcx, %r9, %r10 MULXq %rax, %rbx, %r8 adcxq %rbx, %r10 MULXq %rsi, %rdx, %rbx adcxq %rdx, %r8 movq %rcx, %rdx MULXq %rax, %r12, %rcx adoxq %r12, %r8 adcxq %rcx, %rbx MULXq %rsi, %r12, %rcx adoxq %r12, %rbx MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %rcx adoxq %rdi, %rcx adcxq %rdi, %rax adoxq %rdi, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r9, %r9 adoxq %r11, %r9 adcxq %r10, %r10 adoxq %r13, %r10 adcxq %r8, %r8 adoxq %r12, %r8 adcxq %rbx, %rbx adoxq %r15, %rbx adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rax, %rax adoxq %rdx, %rax adcxq %rdi, %rsi adoxq %rdi, %rsi movq $38, %rdx MULXq %rbx, %rbx, %r11 adoxq %rbx, %rbp adcxq %r11, %r9 MULXq %rcx, %r11, %rcx adoxq %r11, %r9 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %rax, %r8 MULXq %rsi, %rcx, %rax adoxq %rcx, %r8 adcxq %rdi, %rax adoxq %rdi, %rax imulq $38, %rax, %rax addq %rax, %rbp adcq %rdi, %r9 adcq %rdi, %r10 adcq %rdi, %r8 sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rbp movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx$3 xorq %rcx, %rcx movq 152(%rsp), %rdx MULXq %rbp, %rbx, %r12 MULXq %r9, %rsi, %rax adcxq %rsi, %r12 MULXq %r10, %rsi, %r11 adcxq %rsi, %rax MULXq %r8, %rdx, %rsi adcxq %rdx, %r11 adcxq %rcx, %rsi movq 160(%rsp), %rdx MULXq %rbp, %r13, %rdi adoxq %r13, %r12 adcxq %rdi, %rax MULXq %r9, %r13, %rdi adoxq %r13, %rax adcxq %rdi, %r11 MULXq %r10, %r13, %rdi adoxq %r13, %r11 adcxq %rdi, %rsi MULXq %r8, %rdx, %rdi adoxq %rdx, %rsi adcxq %rcx, %rdi adoxq %rcx, %rdi movq 168(%rsp), %rdx MULXq %rbp, %r14, %r13 adoxq %r14, %rax adcxq %r13, %r11 MULXq %r9, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rsi MULXq %r10, %r14, %r13 adoxq %r14, %rsi adcxq %r13, %rdi MULXq %r8, %rdx, %r13 adoxq %rdx, %rdi adcxq %rcx, %r13 adoxq %rcx, %r13 movq 176(%rsp), %rdx MULXq %rbp, %r14, %rbp adoxq %r14, %r11 adcxq %rbp, %rsi MULXq %r9, %rbp, %r9 adoxq %rbp, %rsi adcxq %r9, %rdi MULXq %r10, %r10, %r9 adoxq %r10, %rdi adcxq %r9, %r13 MULXq %r8, %rdx, %r8 adoxq %rdx, %r13 adcxq %rcx, %r8 adoxq %rcx, %r8 movq $38, %rdx MULXq %rsi, %r9, %rsi adoxq %r9, %rbx adcxq %rsi, %r12 MULXq %rdi, %rdi, %rsi adoxq %rdi, %r12 adcxq %rsi, %rax MULXq %r13, %rdi, %rsi adoxq %rdi, %rax adcxq %rsi, %r11 MULXq %r8, %rsi, %rdx adoxq %rsi, %r11 adcxq %rcx, %rdx adoxq %rcx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rbx adcq %rcx, %r12 adcq %rcx, %rax adcq %rcx, %r11 sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rbx movl $25, %ecx Ljade_scalarmult_curve25519_amd64_mulx$2: movl %ecx, 344(%rsp) xorq %r8, %r8 movq %rbx, %rdx MULXq %rdx, %r9, %r10 MULXq %r12, %rsi, %rcx MULXq %rax, %rbx, %rdi adcxq %rbx, %rcx MULXq %r11, %rdx, %rbx adcxq %rdx, %rdi movq %r12, %rdx MULXq %rax, %r12, %rbp adoxq %r12, %rdi adcxq %rbp, %rbx MULXq %r11, %r12, %rbp adoxq %r12, %rbx MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %r11, %r14, %rax adcxq %r14, %rbp adoxq %r8, %rbp adcxq %r8, %rax adoxq %r8, %rax MULXq %rdx, %r15, %r14 movq %r11, %rdx MULXq %rdx, %rdx, %r11 adcxq %rsi, %rsi adoxq %r10, %rsi adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %rbx, %rbx adoxq %r15, %rbx adcxq %rbp, %rbp adoxq %r14, %rbp adcxq %rax, %rax adoxq %rdx, %rax adcxq %r8, %r11 adoxq %r8, %r11 movq $38, %rdx MULXq %rbx, %rbx, %r10 adoxq %rbx, %r9 adcxq %r10, %rsi MULXq %rbp, %rbx, %r10 adoxq %rbx, %rsi adcxq %r10, %rcx MULXq %rax, %r10, %rax adoxq %r10, %rcx adcxq %rax, %rdi MULXq %r11, %rdx, %rax adoxq %rdx, %rdi adcxq %r8, %rax adoxq %r8, %rax imulq $38, %rax, %rax addq %rax, %r9 adcq %r8, %rsi adcq %r8, %rcx adcq %r8, %rdi sbbq %r8, %r8 andq $38, %r8 addq %r8, %r9 xorq %r8, %r8 movq %r9, %rdx MULXq %rdx, %rbx, %r9 MULXq %rsi, %r12, %rax MULXq %rcx, %r10, %r11 adcxq %r10, %rax MULXq %rdi, %rdx, %r10 adcxq %rdx, %r11 movq %rsi, %rdx MULXq %rcx, %rbp, %rsi adoxq %rbp, %r11 adcxq %rsi, %r10 MULXq %rdi, %rbp, %rsi adoxq %rbp, %r10 MULXq %rdx, %r13, %rbp movq %rcx, %rdx MULXq %rdi, %r14, %rcx adcxq %r14, %rsi adoxq %r8, %rsi adcxq %r8, %rcx adoxq %r8, %rcx MULXq %rdx, %r15, %r14 movq %rdi, %rdx MULXq %rdx, %rdx, %rdi adcxq %r12, %r12 adoxq %r9, %r12 adcxq %rax, %rax adoxq %r13, %rax adcxq %r11, %r11 adoxq %rbp, %r11 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %rsi, %rsi adoxq %r14, %rsi adcxq %rcx, %rcx adoxq %rdx, %rcx adcxq %r8, %rdi adoxq %r8, %rdi movq $38, %rdx MULXq %r10, %r10, %r9 adoxq %r10, %rbx adcxq %r9, %r12 MULXq %rsi, %r9, %rsi adoxq %r9, %r12 adcxq %rsi, %rax MULXq %rcx, %rsi, %rcx adoxq %rsi, %rax adcxq %rcx, %r11 MULXq %rdi, %rdx, %rcx adoxq %rdx, %r11 adcxq %r8, %rcx adoxq %r8, %rcx imulq $38, %rcx, %rcx addq %rcx, %rbx adcq %r8, %r12 adcq %r8, %rax adcq %r8, %r11 sbbq %r8, %r8 andq $38, %r8 addq %r8, %rbx movl 344(%rsp), %ecx decl %ecx jne Ljade_scalarmult_curve25519_amd64_mulx$2 xorq %r9, %r9 movq 120(%rsp), %rdx MULXq %rbx, %r8, %rsi MULXq %r12, %rdi, %rcx adcxq %rdi, %rsi MULXq %rax, %r10, %rdi adcxq %r10, %rcx MULXq %r11, %rdx, %r10 adcxq %rdx, %rdi adcxq %r9, %r10 movq 128(%rsp), %rdx MULXq %rbx, %r13, %rbp adoxq %r13, %rsi adcxq %rbp, %rcx MULXq %r12, %r13, %rbp adoxq %r13, %rcx adcxq %rbp, %rdi MULXq %rax, %r13, %rbp adoxq %r13, %rdi adcxq %rbp, %r10 MULXq %r11, %rdx, %rbp adoxq %rdx, %r10 adcxq %r9, %rbp adoxq %r9, %rbp movq 136(%rsp), %rdx MULXq %rbx, %r14, %r13 adoxq %r14, %rcx adcxq %r13, %rdi MULXq %r12, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r10 MULXq %rax, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %rbp MULXq %r11, %rdx, %r13 adoxq %rdx, %rbp adcxq %r9, %r13 adoxq %r9, %r13 movq 144(%rsp), %rdx MULXq %rbx, %r14, %rbx adoxq %r14, %rdi adcxq %rbx, %r10 MULXq %r12, %r12, %rbx adoxq %r12, %r10 adcxq %rbx, %rbp MULXq %rax, %rbx, %rax adoxq %rbx, %rbp adcxq %rax, %r13 MULXq %r11, %rdx, %rax adoxq %rdx, %r13 adcxq %r9, %rax adoxq %r9, %rax movq $38, %rdx MULXq %r10, %r11, %r10 adoxq %r11, %r8 adcxq %r10, %rsi MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r13, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %rax, %rdx, %rax adoxq %rdx, %rdi adcxq %r9, %rax adoxq %r9, %rax imulq $38, %rax, %rax addq %rax, %r8 adcq %r9, %rsi adcq %r9, %rcx adcq %r9, %rdi sbbq %r9, %r9 andq $38, %r9 addq %r9, %r8 movl $2, %eax Ljade_scalarmult_curve25519_amd64_mulx$1: movl %eax, 344(%rsp) xorq %r11, %r11 movq %r8, %rdx MULXq %rdx, %r8, %rbx MULXq %rsi, %r9, %rax MULXq %rcx, %rbp, %r10 adcxq %rbp, %rax MULXq %rdi, %rdx, %rbp adcxq %rdx, %r10 movq %rsi, %rdx MULXq %rcx, %r12, %rsi adoxq %r12, %r10 adcxq %rsi, %rbp MULXq %rdi, %r12, %rsi adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rcx, %rdx MULXq %rdi, %r14, %rcx adcxq %r14, %rsi adoxq %r11, %rsi adcxq %r11, %rcx adoxq %r11, %rcx MULXq %rdx, %r15, %r14 movq %rdi, %rdx MULXq %rdx, %rdx, %rdi adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %rax, %rax adoxq %r13, %rax adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rsi, %rsi adoxq %r14, %rsi adcxq %rcx, %rcx adoxq %rdx, %rcx adcxq %r11, %rdi adoxq %r11, %rdi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r8 adcxq %rbx, %r9 MULXq %rsi, %rbx, %rsi adoxq %rbx, %r9 adcxq %rsi, %rax MULXq %rcx, %rsi, %rcx adoxq %rsi, %rax adcxq %rcx, %r10 MULXq %rdi, %rdx, %rcx adoxq %rdx, %r10 adcxq %r11, %rcx adoxq %r11, %rcx imulq $38, %rcx, %rcx addq %rcx, %r8 adcq %r11, %r9 adcq %r11, %rax adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %r8 xorq %r11, %r11 movq %r8, %rdx MULXq %rdx, %r8, %rbx MULXq %r9, %rsi, %rcx MULXq %rax, %rbp, %rdi adcxq %rbp, %rcx MULXq %r10, %rdx, %rbp adcxq %rdx, %rdi movq %r9, %rdx MULXq %rax, %r12, %r9 adoxq %r12, %rdi adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %r10, %r14, %rax adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %rax adoxq %r11, %rax MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rsi, %rsi adoxq %rbx, %rsi adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %rax, %rax adoxq %rdx, %rax adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r8 adcxq %rbx, %rsi MULXq %r9, %rbx, %r9 adoxq %rbx, %rsi adcxq %r9, %rcx MULXq %rax, %r9, %rax adoxq %r9, %rcx adcxq %rax, %rdi MULXq %r10, %rdx, %rax adoxq %rdx, %rdi adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %r8 adcq %r11, %rsi adcq %r11, %rcx adcq %r11, %rdi sbbq %r11, %r11 andq $38, %r11 addq %r11, %r8 movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx$1 xorq %r9, %r9 movq %r8, %rdx MULXq %rdx, %rax, %rbx MULXq %rsi, %r10, %r11 MULXq %rcx, %rbp, %r8 adcxq %rbp, %r11 MULXq %rdi, %rdx, %rbp adcxq %rdx, %r8 movq %rsi, %rdx MULXq %rcx, %r12, %rsi adoxq %r12, %r8 adcxq %rsi, %rbp MULXq %rdi, %r12, %rsi adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rcx, %rdx MULXq %rdi, %r14, %rcx adcxq %r14, %rsi adoxq %r9, %rsi adcxq %r9, %rcx adoxq %r9, %rcx MULXq %rdx, %r15, %r14 movq %rdi, %rdx MULXq %rdx, %rdx, %rdi adcxq %r10, %r10 adoxq %rbx, %r10 adcxq %r11, %r11 adoxq %r13, %r11 adcxq %r8, %r8 adoxq %r12, %r8 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rsi, %rsi adoxq %r14, %rsi adcxq %rcx, %rcx adoxq %rdx, %rcx adcxq %r9, %rdi adoxq %r9, %rdi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rax adcxq %rbx, %r10 MULXq %rsi, %rbx, %rsi adoxq %rbx, %r10 adcxq %rsi, %r11 MULXq %rcx, %rsi, %rcx adoxq %rsi, %r11 adcxq %rcx, %r8 MULXq %rdi, %rdx, %rcx adoxq %rdx, %r8 adcxq %r9, %rcx adoxq %r9, %rcx imulq $38, %rcx, %rcx addq %rcx, %rax adcq %r9, %r10 adcq %r9, %r11 adcq %r9, %r8 sbbq %r9, %r9 andq $38, %r9 addq %r9, %rax xorq %rbx, %rbx movq 88(%rsp), %rdx MULXq %rax, %rsi, %rcx MULXq %r10, %r9, %rdi adcxq %r9, %rcx MULXq %r11, %rbp, %r9 adcxq %rbp, %rdi MULXq %r8, %rdx, %rbp adcxq %rdx, %r9 adcxq %rbx, %rbp movq 96(%rsp), %rdx MULXq %rax, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r9 MULXq %r11, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %rbp MULXq %r8, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 104(%rsp), %rdx MULXq %rax, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r9 MULXq %r10, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r8, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 112(%rsp), %rdx MULXq %rax, %r14, %rax adoxq %r14, %r9 adcxq %rax, %rbp MULXq %r10, %r10, %rax adoxq %r10, %rbp adcxq %rax, %r12 MULXq %r11, %r10, %rax adoxq %r10, %r12 adcxq %rax, %r13 MULXq %r8, %rdx, %rax adoxq %rdx, %r13 adcxq %rbx, %rax adoxq %rbx, %rax movq $38, %rdx MULXq %rbp, %r10, %r8 adoxq %r10, %rsi adcxq %r8, %rcx MULXq %r12, %r10, %r8 adoxq %r10, %rcx adcxq %r8, %rdi MULXq %r13, %r10, %r8 adoxq %r10, %rdi adcxq %r8, %r9 MULXq %rax, %rdx, %rax adoxq %rdx, %r9 adcxq %rbx, %rax adoxq %rbx, %rax imulq $38, %rax, %rax addq %rax, %rsi adcq %rbx, %rcx adcq %rbx, %rdi adcq %rbx, %r9 sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %rsi xorq %rax, %rax movq 56(%rsp), %rdx MULXq %rsi, %r10, %r8 MULXq %rcx, %rbx, %r11 adcxq %rbx, %r8 MULXq %rdi, %rbp, %rbx adcxq %rbp, %r11 MULXq %r9, %rdx, %rbp adcxq %rdx, %rbx adcxq %rax, %rbp movq 64(%rsp), %rdx MULXq %rsi, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r11 MULXq %rcx, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbx MULXq %rdi, %r13, %r12 adoxq %r13, %rbx adcxq %r12, %rbp MULXq %r9, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 72(%rsp), %rdx MULXq %rsi, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rbx MULXq %rcx, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %rbp MULXq %rdi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r9, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 80(%rsp), %rdx MULXq %rsi, %r14, %rsi adoxq %r14, %rbx adcxq %rsi, %rbp MULXq %rcx, %rsi, %rcx adoxq %rsi, %rbp adcxq %rcx, %r12 MULXq %rdi, %rsi, %rcx adoxq %rsi, %r12 adcxq %rcx, %r13 MULXq %r9, %rdx, %rcx adoxq %rdx, %r13 adcxq %rax, %rcx adoxq %rax, %rcx movq $38, %rdx MULXq %rbp, %rdi, %rsi adoxq %rdi, %r10 adcxq %rsi, %r8 MULXq %r12, %rdi, %rsi adoxq %rdi, %r8 adcxq %rsi, %r11 MULXq %r13, %rdi, %rsi adoxq %rdi, %r11 adcxq %rsi, %rbx MULXq %rcx, %rdx, %rcx adoxq %rdx, %rbx adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %r10 adcq %rax, %r8 adcq %rax, %r11 adcq %rax, %rbx sbbq %rax, %rax andq $38, %rax addq %rax, %r10 leaq (%rbx,%rbx), %rax sarq $63, %rbx shrq $1, %rax andq $19, %rbx addq $19, %rbx addq %rbx, %r10 adcq $0, %r8 adcq $0, %r11 adcq $0, %rax leaq (%rax,%rax), %rcx sarq $63, %rax shrq $1, %rcx notq %rax andq $19, %rax subq %rax, %r10 sbbq $0, %r8 sbbq $0, %r11 sbbq $0, %rcx movq (%rsp), %rax movq %r10, (%rax) movq %r8, 8(%rax) movq %r11, 16(%rax) movq %rcx, 24(%rax) xorq %rax, %rax movq 352(%rsp), %rbx movq 360(%rsp), %rbp movq 368(%rsp), %r12 movq 376(%rsp), %r13 movq 384(%rsp), %r14 movq 392(%rsp), %r15 movq 400(%rsp), %rsp ret
usenix-security-verdict/verdict
31,349
deps/libcrux/sys/libjade/jazz/sha3_512_ref.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_512_amd64_ref .globl jade_hash_sha3_512_amd64_ref _jade_hash_sha3_512_amd64_ref: jade_hash_sha3_512_amd64_ref: movq %rsp, %rax leaq -48(%rsp), %rsp andq $-8, %rsp movq %rax, 40(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq %r14, 32(%rsp) movq $64, %rcx movb $6, %r8b movq $72, %rax leaq -448(%rsp), %rsp call L_keccak1600_ref$1 Ljade_hash_sha3_512_amd64_ref$1: leaq 448(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %r14 movq 40(%rsp), %rsp ret L_keccak1600_ref$1: movq %rdi, 8(%rsp) movq %rcx, 16(%rsp) movb %r8b, 448(%rsp) xorq %rcx, %rcx movq %rcx, 48(%rsp) movq %rcx, 56(%rsp) movq %rcx, 64(%rsp) movq %rcx, 72(%rsp) movq %rcx, 80(%rsp) movq %rcx, 88(%rsp) movq %rcx, 96(%rsp) movq %rcx, 104(%rsp) movq %rcx, 112(%rsp) movq %rcx, 120(%rsp) movq %rcx, 128(%rsp) movq %rcx, 136(%rsp) movq %rcx, 144(%rsp) movq %rcx, 152(%rsp) movq %rcx, 160(%rsp) movq %rcx, 168(%rsp) movq %rcx, 176(%rsp) movq %rcx, 184(%rsp) movq %rcx, 192(%rsp) movq %rcx, 200(%rsp) movq %rcx, 208(%rsp) movq %rcx, 216(%rsp) movq %rcx, 224(%rsp) movq %rcx, 232(%rsp) movq %rcx, 240(%rsp) jmp L_keccak1600_ref$16 L_keccak1600_ref$17: movq %rax, %rcx shrq $3, %rcx movq $0, %rdi jmp L_keccak1600_ref$19 L_keccak1600_ref$20: movq (%rsi,%rdi,8), %r8 xorq %r8, 48(%rsp,%rdi,8) incq %rdi L_keccak1600_ref$19: cmpq %rcx, %rdi jb L_keccak1600_ref$20 addq %rax, %rsi subq %rax, %rdx movq %rsi, 24(%rsp) movq %rdx, 32(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$18: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$18 movq 24(%rsp), %rsi movq 32(%rsp), %rdx movq 40(%rsp), %rax L_keccak1600_ref$16: cmpq %rax, %rdx jnb L_keccak1600_ref$17 movb 448(%rsp), %cl movq %rdx, %rdi shrq $3, %rdi movq $0, %r8 jmp L_keccak1600_ref$14 L_keccak1600_ref$15: movq (%rsi,%r8,8), %r9 xorq %r9, 48(%rsp,%r8,8) incq %r8 L_keccak1600_ref$14: cmpq %rdi, %r8 jb L_keccak1600_ref$15 shlq $3, %r8 jmp L_keccak1600_ref$12 L_keccak1600_ref$13: movb (%rsi,%r8), %dil xorb %dil, 48(%rsp,%r8) incq %r8 L_keccak1600_ref$12: cmpq %rdx, %r8 jb L_keccak1600_ref$13 xorb %cl, 48(%rsp,%r8) movq %rax, %rcx addq $-1, %rcx xorb $-128, 48(%rsp,%rcx) movq 16(%rsp), %rdx jmp L_keccak1600_ref$7 L_keccak1600_ref$8: movq %rdx, 16(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$11: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$11 movq 8(%rsp), %rcx movq 16(%rsp), %rdx movq 40(%rsp), %rax movq %rax, %rsi shrq $3, %rsi movq $0, %rdi jmp L_keccak1600_ref$9 L_keccak1600_ref$10: movq 48(%rsp,%rdi,8), %r8 movq %r8, (%rcx,%rdi,8) incq %rdi L_keccak1600_ref$9: cmpq %rsi, %rdi jb L_keccak1600_ref$10 addq %rax, %rcx subq %rax, %rdx movq %rcx, 8(%rsp) L_keccak1600_ref$7: cmpq %rax, %rdx jnbe L_keccak1600_ref$8 movq %rdx, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$6: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$6 movq 8(%rsp), %rax movq 40(%rsp), %rcx movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_ref$4 L_keccak1600_ref$5: movq 48(%rsp,%rsi,8), %rdi movq %rdi, (%rax,%rsi,8) incq %rsi L_keccak1600_ref$4: cmpq %rdx, %rsi jb L_keccak1600_ref$5 shlq $3, %rsi jmp L_keccak1600_ref$2 L_keccak1600_ref$3: movb 48(%rsp,%rsi), %dl movb %dl, (%rax,%rsi) incq %rsi L_keccak1600_ref$2: cmpq %rcx, %rsi jb L_keccak1600_ref$3 ret .data .p2align 5 _glob_data: glob_data: .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128
usenix-security-verdict/verdict
6,042
deps/libcrux/sys/libjade/jazz/poly1305_ref.s
.att_syntax .text .p2align 5 .globl _jade_onetimeauth_poly1305_amd64_ref_verify .globl jade_onetimeauth_poly1305_amd64_ref_verify .globl _jade_onetimeauth_poly1305_amd64_ref .globl jade_onetimeauth_poly1305_amd64_ref _jade_onetimeauth_poly1305_amd64_ref_verify: jade_onetimeauth_poly1305_amd64_ref_verify: movq %rsp, %rax leaq -56(%rsp), %rsp andq $-8, %rsp movq %rax, 48(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq %r14, 32(%rsp) movq %r15, 40(%rsp) movq %rdx, %r11 movq %rcx, %r8 movq $0, %r15 movq $0, %rbp movq $0, %r12 movq (%r8), %r9 movq 8(%r8), %r14 movq $1152921487695413247, %rax andq %rax, %r9 movq $1152921487695413244, %rax andq %rax, %r14 movq %r14, %r13 shrq $2, %r13 addq %r14, %r13 addq $16, %r8 jmp Ljade_onetimeauth_poly1305_amd64_ref_verify$2 Ljade_onetimeauth_poly1305_amd64_ref_verify$3: addq (%rsi), %r15 adcq 8(%rsi), %rbp adcq $1, %r12 movq %r13, %rcx imulq %r12, %rcx imulq %r9, %r12 movq %r9, %rax mulq %r15 movq %rax, %rbx movq %rdx, %r10 movq %r9, %rax mulq %rbp addq %rax, %r10 adcq %rdx, %r12 movq %r13, %rax mulq %rbp movq %rdx, %rbp addq %rcx, %rbp movq %rax, %rcx movq %r14, %rax mulq %r15 addq %rcx, %rbx adcq %rax, %r10 adcq %rdx, %r12 movq $-4, %r15 movq %r12, %rax shrq $2, %rax andq %r12, %r15 addq %rax, %r15 andq $3, %r12 addq %rbx, %r15 adcq %r10, %rbp adcq $0, %r12 addq $16, %rsi addq $-16, %r11 Ljade_onetimeauth_poly1305_amd64_ref_verify$2: cmpq $16, %r11 jnb Ljade_onetimeauth_poly1305_amd64_ref_verify$3 cmpq $0, %r11 jbe Ljade_onetimeauth_poly1305_amd64_ref_verify$1 xorq %rcx, %rcx movq %r11, %rax andq $7, %rax shlq $3, %rax shrq $3, %r11 movq %r11, %rdx xorq $1, %rdx movq %r11, %r10 addq $-1, %r10 movq %rax, %rbx andq %r10, %rbx xorq %rbx, %rcx xorq %rbx, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r11 movq %rdx, %rax movq %r11, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r11, %rax addq %r10, %r15 adcq %rax, %rbp adcq $0, %r12 movq %r13, %rsi imulq %r12, %rsi imulq %r9, %r12 movq %r9, %rax mulq %r15 movq %rax, %rcx movq %rdx, %r10 movq %r9, %rax mulq %rbp addq %rax, %r10 adcq %rdx, %r12 movq %r13, %rax mulq %rbp movq %rdx, %rbp addq %rsi, %rbp movq %rax, %rsi movq %r14, %rax mulq %r15 addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %r12 movq $-4, %r15 movq %r12, %rax shrq $2, %rax andq %r12, %r15 addq %rax, %r15 andq $3, %r12 addq %rcx, %r15 adcq %r10, %rbp adcq $0, %r12 Ljade_onetimeauth_poly1305_amd64_ref_verify$1: movq %r15, %rax movq %rbp, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r12 shrq $2, %r12 negq %r12 xorq %r15, %rax xorq %rbp, %rcx andq %r12, %rax andq %r12, %rcx xorq %r15, %rax xorq %rbp, %rcx movq (%r8), %rdx movq 8(%r8), %rsi addq %rdx, %rax adcq %rsi, %rcx movq %rax, %rdx xorq (%rdi), %rdx xorq 8(%rdi), %rcx orq %rcx, %rdx xorq %rax, %rax subq $1, %rdx adcq $0, %rax addq $-1, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %r14 movq 40(%rsp), %r15 movq 48(%rsp), %rsp ret _jade_onetimeauth_poly1305_amd64_ref: jade_onetimeauth_poly1305_amd64_ref: movq %rsp, %rax leaq -56(%rsp), %rsp andq $-8, %rsp movq %rax, 48(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq %r14, 32(%rsp) movq %r15, 40(%rsp) movq %rdx, %rbx movq %rcx, %r9 movq $0, %r15 movq $0, %r8 movq $0, %r14 movq (%r9), %r12 movq 8(%r9), %r13 movq $1152921487695413247, %rax andq %rax, %r12 movq $1152921487695413244, %rax andq %rax, %r13 movq %r13, %rbp shrq $2, %rbp addq %r13, %rbp addq $16, %r9 jmp Ljade_onetimeauth_poly1305_amd64_ref$2 Ljade_onetimeauth_poly1305_amd64_ref$3: addq (%rsi), %r15 adcq 8(%rsi), %r8 adcq $1, %r14 movq %rbp, %rcx imulq %r14, %rcx imulq %r12, %r14 movq %r12, %rax mulq %r15 movq %rax, %r11 movq %rdx, %r10 movq %r12, %rax mulq %r8 addq %rax, %r10 adcq %rdx, %r14 movq %rbp, %rax mulq %r8 movq %rdx, %r8 addq %rcx, %r8 movq %rax, %rcx movq %r13, %rax mulq %r15 addq %rcx, %r11 adcq %rax, %r10 adcq %rdx, %r14 movq $-4, %r15 movq %r14, %rax shrq $2, %rax andq %r14, %r15 addq %rax, %r15 andq $3, %r14 addq %r11, %r15 adcq %r10, %r8 adcq $0, %r14 addq $16, %rsi addq $-16, %rbx Ljade_onetimeauth_poly1305_amd64_ref$2: cmpq $16, %rbx jnb Ljade_onetimeauth_poly1305_amd64_ref$3 cmpq $0, %rbx jbe Ljade_onetimeauth_poly1305_amd64_ref$1 xorq %rcx, %rcx movq %rbx, %rax andq $7, %rax shlq $3, %rax shrq $3, %rbx movq %rbx, %rdx xorq $1, %rdx movq %rbx, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %rbx movq %rdx, %rax movq %rbx, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %rbx, %rax addq %r10, %r15 adcq %rax, %r8 adcq $0, %r14 movq %rbp, %rsi imulq %r14, %rsi imulq %r12, %r14 movq %r12, %rax mulq %r15 movq %rax, %rcx movq %rdx, %r10 movq %r12, %rax mulq %r8 addq %rax, %r10 adcq %rdx, %r14 movq %rbp, %rax mulq %r8 movq %rdx, %r8 addq %rsi, %r8 movq %rax, %rsi movq %r13, %rax mulq %r15 addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %r14 movq $-4, %r15 movq %r14, %rax shrq $2, %rax andq %r14, %r15 addq %rax, %r15 andq $3, %r14 addq %rcx, %r15 adcq %r10, %r8 adcq $0, %r14 Ljade_onetimeauth_poly1305_amd64_ref$1: movq %r15, %rax movq %r8, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r14 shrq $2, %r14 negq %r14 xorq %r15, %rax xorq %r8, %rcx andq %r14, %rax andq %r14, %rcx xorq %r15, %rax xorq %r8, %rcx movq (%r9), %rdx movq 8(%r9), %rsi addq %rdx, %rax adcq %rsi, %rcx movq %rax, (%rdi) movq %rcx, 8(%rdi) xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %r14 movq 40(%rsp), %r15 movq 48(%rsp), %rsp ret
usenix-security-verdict/verdict
46,736
deps/libcrux/sys/libjade/jazz/sha256.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha256_amd64_ref .globl jade_hash_sha256_amd64_ref _jade_hash_sha256_amd64_ref: jade_hash_sha256_amd64_ref: movq %rsp, %rax leaq -232(%rsp), %rsp andq $-8, %rsp movq %rax, 224(%rsp) movq %rbx, 176(%rsp) movq %rbp, 184(%rsp) movq %r12, 192(%rsp) movq %r13, 200(%rsp) movq %r14, 208(%rsp) movq %r15, 216(%rsp) movq %rdi, (%rsp) movq %rdx, %rax shlq $3, %rax movq %rax, 8(%rsp) movl $1779033703, 16(%rsp) movl $-1150833019, 20(%rsp) movl $1013904242, 24(%rsp) movl $-1521486534, 28(%rsp) movl $1359893119, 32(%rsp) movl $-1694144372, 36(%rsp) movl $528734635, 40(%rsp) movl $1541459225, 44(%rsp) leaq 16(%rsp), %rdi leaq -272(%rsp), %rsp leaq Ljade_hash_sha256_amd64_ref$12(%rip), %rcx jmp L_blocks_0_ref$1 Ljade_hash_sha256_amd64_ref$12: leaq 272(%rsp), %rsp movq 8(%rsp), %rcx movq $0, %rdi jmp Ljade_hash_sha256_amd64_ref$10 Ljade_hash_sha256_amd64_ref$11: movb (%rsi,%rdi), %al movb %al, 48(%rsp,%rdi) incq %rdi Ljade_hash_sha256_amd64_ref$10: cmpq %rdx, %rdi jb Ljade_hash_sha256_amd64_ref$11 movb $-128, 48(%rsp,%rdi) incq %rdi cmpq $56, %rdx jb Ljade_hash_sha256_amd64_ref$8 movq $120, %rdx movq $2, %rax jmp Ljade_hash_sha256_amd64_ref$9 Ljade_hash_sha256_amd64_ref$8: movq $56, %rdx movq $1, %rax Ljade_hash_sha256_amd64_ref$9: movb $0, %sil jmp Ljade_hash_sha256_amd64_ref$6 Ljade_hash_sha256_amd64_ref$7: movb %sil, 48(%rsp,%rdi) incq %rdi Ljade_hash_sha256_amd64_ref$6: cmpq %rdx, %rdi jb Ljade_hash_sha256_amd64_ref$7 addq $7, %rdi jmp Ljade_hash_sha256_amd64_ref$4 Ljade_hash_sha256_amd64_ref$5: movb %cl, 48(%rsp,%rdi) shrq $8, %rcx addq $-1, %rdi Ljade_hash_sha256_amd64_ref$4: cmpq %rdx, %rdi jnb Ljade_hash_sha256_amd64_ref$5 addq $9, %rdi jmp Ljade_hash_sha256_amd64_ref$2 Ljade_hash_sha256_amd64_ref$3: movb %sil, 48(%rsp,%rdi) incq %rdi Ljade_hash_sha256_amd64_ref$2: cmpq $128, %rdi jb Ljade_hash_sha256_amd64_ref$3 leaq 48(%rsp), %r8 leaq -280(%rsp), %rsp leaq Ljade_hash_sha256_amd64_ref$1(%rip), %rdx jmp L_blocks_1_ref$1 Ljade_hash_sha256_amd64_ref$1: leaq 280(%rsp), %rsp movq (%rsp), %rax movl 16(%rsp), %ecx bswapl %ecx movl %ecx, (%rax) movl 20(%rsp), %ecx bswapl %ecx movl %ecx, 4(%rax) movl 24(%rsp), %ecx bswapl %ecx movl %ecx, 8(%rax) movl 28(%rsp), %ecx bswapl %ecx movl %ecx, 12(%rax) movl 32(%rsp), %ecx bswapl %ecx movl %ecx, 16(%rax) movl 36(%rsp), %ecx bswapl %ecx movl %ecx, 20(%rax) movl 40(%rsp), %ecx bswapl %ecx movl %ecx, 24(%rax) movl 44(%rsp), %ecx bswapl %ecx movl %ecx, 28(%rax) xorq %rax, %rax movq 176(%rsp), %rbx movq 184(%rsp), %rbp movq 192(%rsp), %r12 movq 200(%rsp), %r13 movq 208(%rsp), %r14 movq 216(%rsp), %r15 movq 224(%rsp), %rsp ret L_blocks_1_ref$1: leaq glob_data + 0(%rip), %rcx movq %r9, (%rsp) movq $0, %rsi movq (%rsp), %rdi jmp L_blocks_1_ref$2 L_blocks_1_ref$3: movl (%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 24(%rsp) movl 4(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 28(%rsp) movl 8(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 32(%rsp) movl 12(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 36(%rsp) movl 16(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 40(%rsp) movl 20(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 44(%rsp) movl 24(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 48(%rsp) movl 28(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 52(%rsp) movl 32(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 56(%rsp) movl 36(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 60(%rsp) movl 40(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 64(%rsp) movl 44(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 68(%rsp) movl 48(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 72(%rsp) movl 52(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 76(%rsp) movl 56(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 80(%rsp) movl 60(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 84(%rsp) addq $16, %rsi movq %rsi, (%rsp) movq %r8, 8(%rsp) movl 80(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 60(%rsp), %r8d movl 28(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 24(%rsp), %r8d movl %r8d, 88(%rsp) movl 84(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 64(%rsp), %r8d movl 32(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 28(%rsp), %r8d movl %r8d, 92(%rsp) movl 88(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 68(%rsp), %r8d movl 36(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 32(%rsp), %r8d movl %r8d, 96(%rsp) movl 92(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 72(%rsp), %r8d movl 40(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 36(%rsp), %r8d movl %r8d, 100(%rsp) movl 96(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 76(%rsp), %r8d movl 44(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 40(%rsp), %r8d movl %r8d, 104(%rsp) movl 100(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 80(%rsp), %r8d movl 48(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 44(%rsp), %r8d movl %r8d, 108(%rsp) movl 104(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 84(%rsp), %r8d movl 52(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 48(%rsp), %r8d movl %r8d, 112(%rsp) movl 108(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 88(%rsp), %r8d movl 56(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 52(%rsp), %r8d movl %r8d, 116(%rsp) movl 112(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 92(%rsp), %r8d movl 60(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 56(%rsp), %r8d movl %r8d, 120(%rsp) movl 116(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 96(%rsp), %r8d movl 64(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 60(%rsp), %r8d movl %r8d, 124(%rsp) movl 120(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 100(%rsp), %r8d movl 68(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 64(%rsp), %r8d movl %r8d, 128(%rsp) movl 124(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 104(%rsp), %r8d movl 72(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 68(%rsp), %r8d movl %r8d, 132(%rsp) movl 128(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 108(%rsp), %r8d movl 76(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 72(%rsp), %r8d movl %r8d, 136(%rsp) movl 132(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 112(%rsp), %r8d movl 80(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 76(%rsp), %r8d movl %r8d, 140(%rsp) movl 136(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 116(%rsp), %r8d movl 84(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 80(%rsp), %r8d movl %r8d, 144(%rsp) movl 140(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 120(%rsp), %r8d movl 88(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 84(%rsp), %r8d movl %r8d, 148(%rsp) movl 144(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 124(%rsp), %r8d movl 92(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 88(%rsp), %r8d movl %r8d, 152(%rsp) movl 148(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 128(%rsp), %r8d movl 96(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 92(%rsp), %r8d movl %r8d, 156(%rsp) movl 152(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 132(%rsp), %r8d movl 100(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 96(%rsp), %r8d movl %r8d, 160(%rsp) movl 156(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 136(%rsp), %r8d movl 104(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 100(%rsp), %r8d movl %r8d, 164(%rsp) movl 160(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 140(%rsp), %r8d movl 108(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 104(%rsp), %r8d movl %r8d, 168(%rsp) movl 164(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 144(%rsp), %r8d movl 112(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 108(%rsp), %r8d movl %r8d, 172(%rsp) movl 168(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 148(%rsp), %r8d movl 116(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 112(%rsp), %r8d movl %r8d, 176(%rsp) movl 172(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 152(%rsp), %r8d movl 120(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 116(%rsp), %r8d movl %r8d, 180(%rsp) movl 176(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 156(%rsp), %r8d movl 124(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 120(%rsp), %r8d movl %r8d, 184(%rsp) movl 180(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 160(%rsp), %r8d movl 128(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 124(%rsp), %r8d movl %r8d, 188(%rsp) movl 184(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 164(%rsp), %r8d movl 132(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 128(%rsp), %r8d movl %r8d, 192(%rsp) movl 188(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 168(%rsp), %r8d movl 136(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 132(%rsp), %r8d movl %r8d, 196(%rsp) movl 192(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 172(%rsp), %r8d movl 140(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 136(%rsp), %r8d movl %r8d, 200(%rsp) movl 196(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 176(%rsp), %r8d movl 144(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 140(%rsp), %r8d movl %r8d, 204(%rsp) movl 200(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 180(%rsp), %r8d movl 148(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 144(%rsp), %r8d movl %r8d, 208(%rsp) movl 204(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 184(%rsp), %r8d movl 152(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 148(%rsp), %r8d movl %r8d, 212(%rsp) movl 208(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 188(%rsp), %r8d movl 156(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 152(%rsp), %r8d movl %r8d, 216(%rsp) movl 212(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 192(%rsp), %r8d movl 160(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 156(%rsp), %r8d movl %r8d, 220(%rsp) movl 216(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 196(%rsp), %r8d movl 164(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 160(%rsp), %r8d movl %r8d, 224(%rsp) movl 220(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 200(%rsp), %r8d movl 168(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 164(%rsp), %r8d movl %r8d, 228(%rsp) movl 224(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 204(%rsp), %r8d movl 172(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 168(%rsp), %r8d movl %r8d, 232(%rsp) movl 228(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 208(%rsp), %r8d movl 176(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 172(%rsp), %r8d movl %r8d, 236(%rsp) movl 232(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 212(%rsp), %r8d movl 180(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 176(%rsp), %r8d movl %r8d, 240(%rsp) movl 236(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 216(%rsp), %r8d movl 184(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 180(%rsp), %r8d movl %r8d, 244(%rsp) movl 240(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 220(%rsp), %r8d movl 188(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 184(%rsp), %r8d movl %r8d, 248(%rsp) movl 244(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 224(%rsp), %r8d movl 192(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 188(%rsp), %r8d movl %r8d, 252(%rsp) movl 248(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 228(%rsp), %r8d movl 196(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 192(%rsp), %r8d movl %r8d, 256(%rsp) movl 252(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 232(%rsp), %r8d movl 200(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 196(%rsp), %r8d movl %r8d, 260(%rsp) movl 256(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 236(%rsp), %r8d movl 204(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 200(%rsp), %r8d movl %r8d, 264(%rsp) movl 260(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 240(%rsp), %r8d movl 208(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 204(%rsp), %r8d movl %r8d, 268(%rsp) movl 264(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 244(%rsp), %r8d movl 212(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 208(%rsp), %r8d movl %r8d, 272(%rsp) movl 268(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 248(%rsp), %r8d movl 216(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 212(%rsp), %r8d movl %r8d, 276(%rsp) movl (%rdi), %r14d movl 4(%rdi), %esi movl 8(%rdi), %r8d movl 12(%rdi), %r9d movl 16(%rdi), %r13d movl 20(%rdi), %r10d movl 24(%rdi), %r11d movl 28(%rdi), %r12d movq %rdi, 16(%rsp) movq $0, %rdi jmp L_blocks_1_ref$4 L_blocks_1_ref$5: movl %r12d, %ebx movl %r13d, %ebp rorl $6, %ebp movl %r13d, %r12d rorl $11, %r12d xorl %r12d, %ebp movl %r13d, %r12d rorl $25, %r12d xorl %r12d, %ebp addl %ebp, %ebx movl %r13d, %ebp andl %r10d, %ebp movl %r13d, %r12d notl %r12d andl %r11d, %r12d xorl %r12d, %ebp addl %ebp, %ebx addl (%rcx,%rdi,4), %ebx addl 24(%rsp,%rdi,4), %ebx movl %r14d, %ebp rorl $2, %ebp movl %r14d, %r12d rorl $13, %r12d xorl %r12d, %ebp movl %r14d, %r12d rorl $22, %r12d xorl %r12d, %ebp movl %r14d, %r12d andl %esi, %r12d movl %r14d, %r15d andl %r8d, %r15d xorl %r15d, %r12d movl %esi, %r15d andl %r8d, %r15d xorl %r15d, %r12d addl %r12d, %ebp movl %r11d, %r12d movl %r10d, %r11d movl %r13d, %r10d movl %r9d, %r13d addl %ebx, %r13d movl %r8d, %r9d movl %esi, %r8d movl %r14d, %esi movl %ebx, %r14d addl %ebp, %r14d incq %rdi L_blocks_1_ref$4: cmpq $64, %rdi jb L_blocks_1_ref$5 movq 16(%rsp), %rdi addl (%rdi), %r14d addl 4(%rdi), %esi addl 8(%rdi), %r8d addl 12(%rdi), %r9d addl 16(%rdi), %r13d addl 20(%rdi), %r10d addl 24(%rdi), %r11d addl 28(%rdi), %r12d movl %r14d, (%rdi) movl %esi, 4(%rdi) movl %r8d, 8(%rdi) movl %r9d, 12(%rdi) movl %r13d, 16(%rdi) movl %r10d, 20(%rdi) movl %r11d, 24(%rdi) movl %r12d, 28(%rdi) movq 8(%rsp), %r8 movq (%rsp), %rsi addq $-1, %rax L_blocks_1_ref$2: cmpq $0, %rax jnbe L_blocks_1_ref$3 jmp *%rdx L_blocks_0_ref$1: leaq glob_data + 0(%rip), %rax movq %rdi, (%rsp) movq (%rsp), %rdi jmp L_blocks_0_ref$2 L_blocks_0_ref$3: movl (%rsi), %r8d bswapl %r8d movl %r8d, 16(%rsp) movl 4(%rsi), %r8d bswapl %r8d movl %r8d, 20(%rsp) movl 8(%rsi), %r8d bswapl %r8d movl %r8d, 24(%rsp) movl 12(%rsi), %r8d bswapl %r8d movl %r8d, 28(%rsp) movl 16(%rsi), %r8d bswapl %r8d movl %r8d, 32(%rsp) movl 20(%rsi), %r8d bswapl %r8d movl %r8d, 36(%rsp) movl 24(%rsi), %r8d bswapl %r8d movl %r8d, 40(%rsp) movl 28(%rsi), %r8d bswapl %r8d movl %r8d, 44(%rsp) movl 32(%rsi), %r8d bswapl %r8d movl %r8d, 48(%rsp) movl 36(%rsi), %r8d bswapl %r8d movl %r8d, 52(%rsp) movl 40(%rsi), %r8d bswapl %r8d movl %r8d, 56(%rsp) movl 44(%rsi), %r8d bswapl %r8d movl %r8d, 60(%rsp) movl 48(%rsi), %r8d bswapl %r8d movl %r8d, 64(%rsp) movl 52(%rsi), %r8d bswapl %r8d movl %r8d, 68(%rsp) movl 56(%rsi), %r8d bswapl %r8d movl %r8d, 72(%rsp) movl 60(%rsi), %r8d bswapl %r8d movl %r8d, 76(%rsp) movq %rsi, (%rsp) movl 72(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 52(%rsp), %r8d movl 20(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 16(%rsp), %r8d movl %r8d, 80(%rsp) movl 76(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 56(%rsp), %r8d movl 24(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 20(%rsp), %r8d movl %r8d, 84(%rsp) movl 80(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 60(%rsp), %r8d movl 28(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 24(%rsp), %r8d movl %r8d, 88(%rsp) movl 84(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 64(%rsp), %r8d movl 32(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 28(%rsp), %r8d movl %r8d, 92(%rsp) movl 88(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 68(%rsp), %r8d movl 36(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 32(%rsp), %r8d movl %r8d, 96(%rsp) movl 92(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 72(%rsp), %r8d movl 40(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 36(%rsp), %r8d movl %r8d, 100(%rsp) movl 96(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 76(%rsp), %r8d movl 44(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 40(%rsp), %r8d movl %r8d, 104(%rsp) movl 100(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 80(%rsp), %r8d movl 48(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 44(%rsp), %r8d movl %r8d, 108(%rsp) movl 104(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 84(%rsp), %r8d movl 52(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 48(%rsp), %r8d movl %r8d, 112(%rsp) movl 108(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 88(%rsp), %r8d movl 56(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 52(%rsp), %r8d movl %r8d, 116(%rsp) movl 112(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 92(%rsp), %r8d movl 60(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 56(%rsp), %r8d movl %r8d, 120(%rsp) movl 116(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 96(%rsp), %r8d movl 64(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 60(%rsp), %r8d movl %r8d, 124(%rsp) movl 120(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 100(%rsp), %r8d movl 68(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 64(%rsp), %r8d movl %r8d, 128(%rsp) movl 124(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 104(%rsp), %r8d movl 72(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 68(%rsp), %r8d movl %r8d, 132(%rsp) movl 128(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 108(%rsp), %r8d movl 76(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 72(%rsp), %r8d movl %r8d, 136(%rsp) movl 132(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 112(%rsp), %r8d movl 80(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 76(%rsp), %r8d movl %r8d, 140(%rsp) movl 136(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 116(%rsp), %r8d movl 84(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 80(%rsp), %r8d movl %r8d, 144(%rsp) movl 140(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 120(%rsp), %r8d movl 88(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 84(%rsp), %r8d movl %r8d, 148(%rsp) movl 144(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 124(%rsp), %r8d movl 92(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 88(%rsp), %r8d movl %r8d, 152(%rsp) movl 148(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 128(%rsp), %r8d movl 96(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 92(%rsp), %r8d movl %r8d, 156(%rsp) movl 152(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 132(%rsp), %r8d movl 100(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 96(%rsp), %r8d movl %r8d, 160(%rsp) movl 156(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 136(%rsp), %r8d movl 104(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 100(%rsp), %r8d movl %r8d, 164(%rsp) movl 160(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 140(%rsp), %r8d movl 108(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 104(%rsp), %r8d movl %r8d, 168(%rsp) movl 164(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 144(%rsp), %r8d movl 112(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 108(%rsp), %r8d movl %r8d, 172(%rsp) movl 168(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 148(%rsp), %r8d movl 116(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 112(%rsp), %r8d movl %r8d, 176(%rsp) movl 172(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 152(%rsp), %r8d movl 120(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 116(%rsp), %r8d movl %r8d, 180(%rsp) movl 176(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 156(%rsp), %r8d movl 124(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 120(%rsp), %r8d movl %r8d, 184(%rsp) movl 180(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 160(%rsp), %r8d movl 128(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 124(%rsp), %r8d movl %r8d, 188(%rsp) movl 184(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 164(%rsp), %r8d movl 132(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 128(%rsp), %r8d movl %r8d, 192(%rsp) movl 188(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 168(%rsp), %r8d movl 136(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 132(%rsp), %r8d movl %r8d, 196(%rsp) movl 192(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 172(%rsp), %r8d movl 140(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 136(%rsp), %r8d movl %r8d, 200(%rsp) movl 196(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 176(%rsp), %r8d movl 144(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 140(%rsp), %r8d movl %r8d, 204(%rsp) movl 200(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 180(%rsp), %r8d movl 148(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 144(%rsp), %r8d movl %r8d, 208(%rsp) movl 204(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 184(%rsp), %r8d movl 152(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 148(%rsp), %r8d movl %r8d, 212(%rsp) movl 208(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 188(%rsp), %r8d movl 156(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 152(%rsp), %r8d movl %r8d, 216(%rsp) movl 212(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 192(%rsp), %r8d movl 160(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 156(%rsp), %r8d movl %r8d, 220(%rsp) movl 216(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 196(%rsp), %r8d movl 164(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 160(%rsp), %r8d movl %r8d, 224(%rsp) movl 220(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 200(%rsp), %r8d movl 168(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 164(%rsp), %r8d movl %r8d, 228(%rsp) movl 224(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 204(%rsp), %r8d movl 172(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 168(%rsp), %r8d movl %r8d, 232(%rsp) movl 228(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 208(%rsp), %r8d movl 176(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 172(%rsp), %r8d movl %r8d, 236(%rsp) movl 232(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 212(%rsp), %r8d movl 180(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 176(%rsp), %r8d movl %r8d, 240(%rsp) movl 236(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 216(%rsp), %r8d movl 184(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 180(%rsp), %r8d movl %r8d, 244(%rsp) movl 240(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 220(%rsp), %r8d movl 188(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 184(%rsp), %r8d movl %r8d, 248(%rsp) movl 244(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 224(%rsp), %r8d movl 192(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 188(%rsp), %r8d movl %r8d, 252(%rsp) movl 248(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 228(%rsp), %r8d movl 196(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 192(%rsp), %r8d movl %r8d, 256(%rsp) movl 252(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 232(%rsp), %r8d movl 200(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 196(%rsp), %r8d movl %r8d, 260(%rsp) movl 256(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 236(%rsp), %r8d movl 204(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 200(%rsp), %r8d movl %r8d, 264(%rsp) movl 260(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 240(%rsp), %r8d movl 208(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 204(%rsp), %r8d movl %r8d, 268(%rsp) movl (%rdi), %r14d movl 4(%rdi), %esi movl 8(%rdi), %r8d movl 12(%rdi), %r9d movl 16(%rdi), %r13d movl 20(%rdi), %r10d movl 24(%rdi), %r11d movl 28(%rdi), %r12d movq %rdi, 8(%rsp) movq $0, %rdi jmp L_blocks_0_ref$4 L_blocks_0_ref$5: movl %r12d, %ebx movl %r13d, %ebp rorl $6, %ebp movl %r13d, %r12d rorl $11, %r12d xorl %r12d, %ebp movl %r13d, %r12d rorl $25, %r12d xorl %r12d, %ebp addl %ebp, %ebx movl %r13d, %ebp andl %r10d, %ebp movl %r13d, %r12d notl %r12d andl %r11d, %r12d xorl %r12d, %ebp addl %ebp, %ebx addl (%rax,%rdi,4), %ebx addl 16(%rsp,%rdi,4), %ebx movl %r14d, %ebp rorl $2, %ebp movl %r14d, %r12d rorl $13, %r12d xorl %r12d, %ebp movl %r14d, %r12d rorl $22, %r12d xorl %r12d, %ebp movl %r14d, %r12d andl %esi, %r12d movl %r14d, %r15d andl %r8d, %r15d xorl %r15d, %r12d movl %esi, %r15d andl %r8d, %r15d xorl %r15d, %r12d addl %r12d, %ebp movl %r11d, %r12d movl %r10d, %r11d movl %r13d, %r10d movl %r9d, %r13d addl %ebx, %r13d movl %r8d, %r9d movl %esi, %r8d movl %r14d, %esi movl %ebx, %r14d addl %ebp, %r14d incq %rdi L_blocks_0_ref$4: cmpq $64, %rdi jb L_blocks_0_ref$5 movq 8(%rsp), %rdi addl (%rdi), %r14d addl 4(%rdi), %esi addl 8(%rdi), %r8d addl 12(%rdi), %r9d addl 16(%rdi), %r13d addl 20(%rdi), %r10d addl 24(%rdi), %r11d addl 28(%rdi), %r12d movl %r14d, (%rdi) movl %esi, 4(%rdi) movl %r8d, 8(%rdi) movl %r9d, 12(%rdi) movl %r13d, 16(%rdi) movl %r10d, 20(%rdi) movl %r11d, 24(%rdi) movl %r12d, 28(%rdi) movq (%rsp), %rsi addq $64, %rsi addq $-64, %rdx L_blocks_0_ref$2: cmpq $64, %rdx jnb L_blocks_0_ref$3 movq %rdi, %r9 jmp *%rcx .data .p2align 5 _glob_data: glob_data: .byte -104 .byte 47 .byte -118 .byte 66 .byte -111 .byte 68 .byte 55 .byte 113 .byte -49 .byte -5 .byte -64 .byte -75 .byte -91 .byte -37 .byte -75 .byte -23 .byte 91 .byte -62 .byte 86 .byte 57 .byte -15 .byte 17 .byte -15 .byte 89 .byte -92 .byte -126 .byte 63 .byte -110 .byte -43 .byte 94 .byte 28 .byte -85 .byte -104 .byte -86 .byte 7 .byte -40 .byte 1 .byte 91 .byte -125 .byte 18 .byte -66 .byte -123 .byte 49 .byte 36 .byte -61 .byte 125 .byte 12 .byte 85 .byte 116 .byte 93 .byte -66 .byte 114 .byte -2 .byte -79 .byte -34 .byte -128 .byte -89 .byte 6 .byte -36 .byte -101 .byte 116 .byte -15 .byte -101 .byte -63 .byte -63 .byte 105 .byte -101 .byte -28 .byte -122 .byte 71 .byte -66 .byte -17 .byte -58 .byte -99 .byte -63 .byte 15 .byte -52 .byte -95 .byte 12 .byte 36 .byte 111 .byte 44 .byte -23 .byte 45 .byte -86 .byte -124 .byte 116 .byte 74 .byte -36 .byte -87 .byte -80 .byte 92 .byte -38 .byte -120 .byte -7 .byte 118 .byte 82 .byte 81 .byte 62 .byte -104 .byte 109 .byte -58 .byte 49 .byte -88 .byte -56 .byte 39 .byte 3 .byte -80 .byte -57 .byte 127 .byte 89 .byte -65 .byte -13 .byte 11 .byte -32 .byte -58 .byte 71 .byte -111 .byte -89 .byte -43 .byte 81 .byte 99 .byte -54 .byte 6 .byte 103 .byte 41 .byte 41 .byte 20 .byte -123 .byte 10 .byte -73 .byte 39 .byte 56 .byte 33 .byte 27 .byte 46 .byte -4 .byte 109 .byte 44 .byte 77 .byte 19 .byte 13 .byte 56 .byte 83 .byte 84 .byte 115 .byte 10 .byte 101 .byte -69 .byte 10 .byte 106 .byte 118 .byte 46 .byte -55 .byte -62 .byte -127 .byte -123 .byte 44 .byte 114 .byte -110 .byte -95 .byte -24 .byte -65 .byte -94 .byte 75 .byte 102 .byte 26 .byte -88 .byte 112 .byte -117 .byte 75 .byte -62 .byte -93 .byte 81 .byte 108 .byte -57 .byte 25 .byte -24 .byte -110 .byte -47 .byte 36 .byte 6 .byte -103 .byte -42 .byte -123 .byte 53 .byte 14 .byte -12 .byte 112 .byte -96 .byte 106 .byte 16 .byte 22 .byte -63 .byte -92 .byte 25 .byte 8 .byte 108 .byte 55 .byte 30 .byte 76 .byte 119 .byte 72 .byte 39 .byte -75 .byte -68 .byte -80 .byte 52 .byte -77 .byte 12 .byte 28 .byte 57 .byte 74 .byte -86 .byte -40 .byte 78 .byte 79 .byte -54 .byte -100 .byte 91 .byte -13 .byte 111 .byte 46 .byte 104 .byte -18 .byte -126 .byte -113 .byte 116 .byte 111 .byte 99 .byte -91 .byte 120 .byte 20 .byte 120 .byte -56 .byte -124 .byte 8 .byte 2 .byte -57 .byte -116 .byte -6 .byte -1 .byte -66 .byte -112 .byte -21 .byte 108 .byte 80 .byte -92 .byte -9 .byte -93 .byte -7 .byte -66 .byte -14 .byte 120 .byte 113 .byte -58
usenix-security-verdict/verdict
34,209
deps/libcrux/sys/libjade/jazz/sha3_256_avx2.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_256_amd64_avx2 .globl jade_hash_sha3_256_amd64_avx2 _jade_hash_sha3_256_amd64_avx2: jade_hash_sha3_256_amd64_avx2: movq %rsp, %rax leaq -40(%rsp), %rsp andq $-32, %rsp movq %rax, 32(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq $32, %r9 movb $6, %al movq $136, %rcx leaq -224(%rsp), %rsp leaq Ljade_hash_sha3_256_amd64_avx2$1(%rip), %r10 jmp L_keccak1600_avx2$1 Ljade_hash_sha3_256_amd64_avx2$1: leaq 224(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %rsp ret L_keccak1600_avx2$1: vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm5, %ymm5, %ymm5 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm2, %ymm2, %ymm2 leaq glob_data + 1152(%rip), %r8 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) jmp L_keccak1600_avx2$16 L_keccak1600_avx2$17: movq %rcx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$19 L_keccak1600_avx2$20: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$19: cmpq %r11, %rbx jb L_keccak1600_avx2$20 movq (%rsp), %r11 movq %r11, 8(%rsp) movq %r11, 16(%rsp) movq %r11, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 addq %rcx, %rsi subq %rcx, %rdx leaq glob_data + 384(%rip), %r11 movq $0, %rbx leaq glob_data + 192(%rip), %rbp leaq glob_data + 0(%rip), %r12 movq $24, %r13 L_keccak1600_avx2$18: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rbp), %ymm4, %ymm7 vpsrlvq (%r12), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rbp), %ymm0, %ymm7 vpsrlvq 64(%r12), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rbp), %ymm5, %ymm7 vpsrlvq 96(%r12), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rbp), %ymm1, %ymm5 vpsrlvq 128(%r12), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rbp), %ymm2, %ymm0 vpsrlvq 160(%r12), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rbp), %ymm0, %ymm1 vpsrlvq 32(%r12), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%r11,%rbx), %ymm6, %ymm6 addq $32, %rbx decq %r13 jne L_keccak1600_avx2$18 L_keccak1600_avx2$16: cmpq %rcx, %rdx jnb L_keccak1600_avx2$17 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) movq %rdx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$14 L_keccak1600_avx2$15: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$14: cmpq %r11, %rbx jb L_keccak1600_avx2$15 movq (%r8,%rbx,8), %r11 shlq $3, %r11 shlq $3, %rbx jmp L_keccak1600_avx2$12 L_keccak1600_avx2$13: movb (%rsi,%rbx), %bpl movb %bpl, (%rsp,%r11) incq %rbx incq %r11 L_keccak1600_avx2$12: cmpq %rdx, %rbx jb L_keccak1600_avx2$13 movb %al, (%rsp,%r11) movq %rcx, %rax addq $-1, %rax shrq $3, %rax movq (%r8,%rax,8), %rax shlq $3, %rax movq %rcx, %rdx addq $-1, %rdx andq $7, %rdx addq %rdx, %rax xorb $-128, (%rsp,%rax) movq (%rsp), %rax movq %rax, 8(%rsp) movq %rax, 16(%rsp) movq %rax, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 leaq glob_data + 1152(%rip), %rax jmp L_keccak1600_avx2$7 L_keccak1600_avx2$8: leaq glob_data + 384(%rip), %rdx movq $0, %rsi leaq glob_data + 192(%rip), %r8 leaq glob_data + 0(%rip), %r11 movq $24, %rbx L_keccak1600_avx2$11: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r8), %ymm4, %ymm7 vpsrlvq (%r11), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%r8), %ymm0, %ymm7 vpsrlvq 64(%r11), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%r8), %ymm5, %ymm7 vpsrlvq 96(%r11), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%r8), %ymm1, %ymm5 vpsrlvq 128(%r11), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%r8), %ymm2, %ymm0 vpsrlvq 160(%r11), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%r8), %ymm0, %ymm1 vpsrlvq 32(%r11), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rdx,%rsi), %ymm6, %ymm6 addq $32, %rsi decq %rbx jne L_keccak1600_avx2$11 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_avx2$9 L_keccak1600_avx2$10: movq (%rax,%rsi,8), %r8 movq (%rsp,%r8,8), %r8 movq %r8, (%rdi,%rsi,8) incq %rsi L_keccak1600_avx2$9: cmpq %rdx, %rsi jb L_keccak1600_avx2$10 addq %rcx, %rdi subq %rcx, %r9 L_keccak1600_avx2$7: cmpq %rcx, %r9 jnbe L_keccak1600_avx2$8 leaq glob_data + 384(%rip), %rcx movq $0, %rdx leaq glob_data + 192(%rip), %rsi leaq glob_data + 0(%rip), %r8 movq $24, %r11 L_keccak1600_avx2$6: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm4, %ymm7 vpsrlvq (%r8), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rsi), %ymm0, %ymm7 vpsrlvq 64(%r8), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rsi), %ymm5, %ymm7 vpsrlvq 96(%r8), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rsi), %ymm1, %ymm5 vpsrlvq 128(%r8), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rsi), %ymm2, %ymm0 vpsrlvq 160(%r8), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rsi), %ymm0, %ymm1 vpsrlvq 32(%r8), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r11 jne L_keccak1600_avx2$6 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %r9, %rcx shrq $3, %rcx movq $0, %rdx jmp L_keccak1600_avx2$4 L_keccak1600_avx2$5: movq (%rax,%rdx,8), %rsi movq (%rsp,%rsi,8), %rsi movq %rsi, (%rdi,%rdx,8) incq %rdx L_keccak1600_avx2$4: cmpq %rcx, %rdx jb L_keccak1600_avx2$5 movq (%rax,%rdx,8), %rax shlq $3, %rdx shlq $3, %rax jmp L_keccak1600_avx2$2 L_keccak1600_avx2$3: movb (%rsp,%rax), %cl movb %cl, (%rdi,%rdx) incq %rdx incq %rax L_keccak1600_avx2$2: cmpq %r9, %rdx jb L_keccak1600_avx2$3 jmp *%r10 .data .p2align 5 _glob_data: glob_data: .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 46 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 63 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 37 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 58 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 54 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 49 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 50 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 41 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 45 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 55 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 24 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 13 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 16 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 22 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 11 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 12 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 26 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 17 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0
usenix-security-verdict/verdict
199,579
deps/libcrux/sys/hacl/c/vale/src/aesgcm-x86_64-linux.S
.text .global aes128_key_expansion aes128_key_expansion: movdqu 0(%rdi), %xmm1 mov %rsi, %rdx movdqu %xmm1, 0(%rdx) aeskeygenassist $1, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 16(%rdx) aeskeygenassist $2, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 32(%rdx) aeskeygenassist $4, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 48(%rdx) aeskeygenassist $8, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 64(%rdx) aeskeygenassist $16, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 80(%rdx) aeskeygenassist $32, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 96(%rdx) aeskeygenassist $64, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 112(%rdx) aeskeygenassist $128, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 128(%rdx) aeskeygenassist $27, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 144(%rdx) aeskeygenassist $54, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 160(%rdx) pxor %xmm1, %xmm1 pxor %xmm2, %xmm2 pxor %xmm3, %xmm3 ret .global aes128_keyhash_init aes128_keyhash_init: mov $579005069656919567, %r8 pinsrq $0, %r8, %xmm4 mov $283686952306183, %r8 pinsrq $1, %r8, %xmm4 pxor %xmm0, %xmm0 movdqu %xmm0, 80(%rsi) mov %rdi, %r8 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm4, %xmm0 mov %rsi, %rcx movdqu %xmm0, 32(%rcx) movdqu %xmm6, %xmm0 mov %r12, %rax movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 0(%rcx) movdqu %xmm6, %xmm1 movdqu %xmm6, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 16(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 48(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 64(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 96(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 112(%rcx) movdqu %xmm0, %xmm6 mov %rax, %r12 ret .global aes256_key_expansion aes256_key_expansion: movdqu 0(%rdi), %xmm1 movdqu 16(%rdi), %xmm3 mov %rsi, %rdx movdqu %xmm1, 0(%rdx) movdqu %xmm3, 16(%rdx) aeskeygenassist $1, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 32(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 48(%rdx) aeskeygenassist $2, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 64(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 80(%rdx) aeskeygenassist $4, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 96(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 112(%rdx) aeskeygenassist $8, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 128(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 144(%rdx) aeskeygenassist $16, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 160(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 176(%rdx) aeskeygenassist $32, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 192(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 208(%rdx) aeskeygenassist $64, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 224(%rdx) pxor %xmm1, %xmm1 pxor %xmm2, %xmm2 pxor %xmm3, %xmm3 pxor %xmm4, %xmm4 ret .global aes256_keyhash_init aes256_keyhash_init: mov $579005069656919567, %r8 pinsrq $0, %r8, %xmm4 mov $283686952306183, %r8 pinsrq $1, %r8, %xmm4 pxor %xmm0, %xmm0 movdqu %xmm0, 80(%rsi) mov %rdi, %r8 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm4, %xmm0 mov %rsi, %rcx movdqu %xmm0, 32(%rcx) movdqu %xmm6, %xmm0 mov %r12, %rax movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 0(%rcx) movdqu %xmm6, %xmm1 movdqu %xmm6, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 16(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 48(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 64(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 96(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 112(%rcx) movdqu %xmm0, %xmm6 mov %rax, %r12 ret .global gctr128_bytes gctr128_bytes: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx movdqu 0(%r9), %xmm7 mov %rdi, %rax mov %rdx, %rbx mov %rcx, %r13 mov 72(%rsp), %rcx mov %rcx, %rbp imul $16, %rbp mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm8 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm8 mov %rcx, %rdx shr $2, %rdx and $3, %rcx cmp $0, %rdx jbe L0 mov %rax, %r9 mov %rbx, %r10 pshufb %xmm8, %xmm7 movdqu %xmm7, %xmm9 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pshufb %xmm0, %xmm9 movdqu %xmm9, %xmm10 pxor %xmm3, %xmm3 mov $1, %rax pinsrd $2, %eax, %xmm3 paddd %xmm3, %xmm9 mov $3, %rax pinsrd $2, %eax, %xmm3 mov $2, %rax pinsrd $0, %eax, %xmm3 paddd %xmm3, %xmm10 pshufb %xmm8, %xmm9 pshufb %xmm8, %xmm10 pextrq $0, %xmm7, %rdi mov $283686952306183, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pxor %xmm15, %xmm15 mov $4, %rax pinsrd $0, %eax, %xmm15 mov $4, %rax pinsrd $2, %eax, %xmm15 jmp L3 .balign 16 L2: pinsrq $0, %rdi, %xmm2 pinsrq $0, %rdi, %xmm12 pinsrq $0, %rdi, %xmm13 pinsrq $0, %rdi, %xmm14 shufpd $2, %xmm9, %xmm2 shufpd $0, %xmm9, %xmm12 shufpd $2, %xmm10, %xmm13 shufpd $0, %xmm10, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 movdqu 0(%r8), %xmm3 movdqu 16(%r8), %xmm4 movdqu 32(%r8), %xmm5 movdqu 48(%r8), %xmm6 paddd %xmm15, %xmm9 paddd %xmm15, %xmm10 pxor %xmm3, %xmm2 pxor %xmm3, %xmm12 pxor %xmm3, %xmm13 pxor %xmm3, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 64(%r8), %xmm3 movdqu 80(%r8), %xmm4 movdqu 96(%r8), %xmm5 movdqu 112(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 128(%r8), %xmm3 movdqu 144(%r8), %xmm4 movdqu 160(%r8), %xmm5 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenclast %xmm5, %xmm2 aesenclast %xmm5, %xmm12 aesenclast %xmm5, %xmm13 aesenclast %xmm5, %xmm14 movdqu 0(%r9), %xmm7 pxor %xmm7, %xmm2 movdqu 16(%r9), %xmm7 pxor %xmm7, %xmm12 movdqu 32(%r9), %xmm7 pxor %xmm7, %xmm13 movdqu 48(%r9), %xmm7 pxor %xmm7, %xmm14 movdqu %xmm2, 0(%r10) movdqu %xmm12, 16(%r10) movdqu %xmm13, 32(%r10) movdqu %xmm14, 48(%r10) sub $1, %rdx add $64, %r9 add $64, %r10 .balign 16 L3: cmp $0, %rdx ja L2 movdqu %xmm9, %xmm7 pinsrq $0, %rdi, %xmm7 pshufb %xmm8, %xmm7 mov %r9, %rax mov %r10, %rbx jmp L1 L0: L1: mov $0, %rdx mov %rax, %r9 mov %rbx, %r10 pxor %xmm4, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 jmp L5 .balign 16 L4: movdqu %xmm7, %xmm0 pshufb %xmm8, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r9), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rdx add $16, %r9 add $16, %r10 paddd %xmm4, %xmm7 .balign 16 L5: cmp %rcx, %rdx jne L4 cmp %rbp, %rsi jbe L6 movdqu 0(%r13), %xmm1 movdqu %xmm7, %xmm0 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm2 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm2 pshufb %xmm2, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm1 movdqu %xmm1, 0(%r13) jmp L7 L6: L7: pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global gctr256_bytes gctr256_bytes: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx movdqu 0(%r9), %xmm7 mov %rdi, %rax mov %rdx, %rbx mov %rcx, %r13 mov 72(%rsp), %rcx mov %rcx, %rbp imul $16, %rbp mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm8 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm8 mov %rcx, %rdx shr $2, %rdx and $3, %rcx cmp $0, %rdx jbe L8 mov %rax, %r9 mov %rbx, %r10 pshufb %xmm8, %xmm7 movdqu %xmm7, %xmm9 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pshufb %xmm0, %xmm9 movdqu %xmm9, %xmm10 pxor %xmm3, %xmm3 mov $1, %rax pinsrd $2, %eax, %xmm3 paddd %xmm3, %xmm9 mov $3, %rax pinsrd $2, %eax, %xmm3 mov $2, %rax pinsrd $0, %eax, %xmm3 paddd %xmm3, %xmm10 pshufb %xmm8, %xmm9 pshufb %xmm8, %xmm10 pextrq $0, %xmm7, %rdi mov $283686952306183, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pxor %xmm15, %xmm15 mov $4, %rax pinsrd $0, %eax, %xmm15 mov $4, %rax pinsrd $2, %eax, %xmm15 jmp L11 .balign 16 L10: pinsrq $0, %rdi, %xmm2 pinsrq $0, %rdi, %xmm12 pinsrq $0, %rdi, %xmm13 pinsrq $0, %rdi, %xmm14 shufpd $2, %xmm9, %xmm2 shufpd $0, %xmm9, %xmm12 shufpd $2, %xmm10, %xmm13 shufpd $0, %xmm10, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 movdqu 0(%r8), %xmm3 movdqu 16(%r8), %xmm4 movdqu 32(%r8), %xmm5 movdqu 48(%r8), %xmm6 paddd %xmm15, %xmm9 paddd %xmm15, %xmm10 pxor %xmm3, %xmm2 pxor %xmm3, %xmm12 pxor %xmm3, %xmm13 pxor %xmm3, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 64(%r8), %xmm3 movdqu 80(%r8), %xmm4 movdqu 96(%r8), %xmm5 movdqu 112(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 128(%r8), %xmm3 movdqu 144(%r8), %xmm4 movdqu 160(%r8), %xmm5 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 movdqu %xmm5, %xmm3 movdqu 176(%r8), %xmm4 movdqu 192(%r8), %xmm5 movdqu 208(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 224(%r8), %xmm5 aesenclast %xmm5, %xmm2 aesenclast %xmm5, %xmm12 aesenclast %xmm5, %xmm13 aesenclast %xmm5, %xmm14 movdqu 0(%r9), %xmm7 pxor %xmm7, %xmm2 movdqu 16(%r9), %xmm7 pxor %xmm7, %xmm12 movdqu 32(%r9), %xmm7 pxor %xmm7, %xmm13 movdqu 48(%r9), %xmm7 pxor %xmm7, %xmm14 movdqu %xmm2, 0(%r10) movdqu %xmm12, 16(%r10) movdqu %xmm13, 32(%r10) movdqu %xmm14, 48(%r10) sub $1, %rdx add $64, %r9 add $64, %r10 .balign 16 L11: cmp $0, %rdx ja L10 movdqu %xmm9, %xmm7 pinsrq $0, %rdi, %xmm7 pshufb %xmm8, %xmm7 mov %r9, %rax mov %r10, %rbx jmp L9 L8: L9: mov $0, %rdx mov %rax, %r9 mov %rbx, %r10 pxor %xmm4, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 jmp L13 .balign 16 L12: movdqu %xmm7, %xmm0 pshufb %xmm8, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r9), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rdx add $16, %r9 add $16, %r10 paddd %xmm4, %xmm7 .balign 16 L13: cmp %rcx, %rdx jne L12 cmp %rbp, %rsi jbe L14 movdqu 0(%r13), %xmm1 movdqu %xmm7, %xmm0 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm2 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm2 pshufb %xmm2, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm1 movdqu %xmm1, 0(%r13) jmp L15 L14: L15: pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global compute_iv_stdcall compute_iv_stdcall: cmp $12, %rsi jne L16 cmp $12, %rsi jne L18 movdqu 0(%r8), %xmm0 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm1 mov $283686952306183, %rax pinsrq $1, %rax, %xmm1 pshufb %xmm1, %xmm0 mov $1, %rax pinsrd $0, %eax, %xmm0 movdqu %xmm0, 0(%rcx) jmp L19 L18: mov %rcx, %rax add $32, %r9 mov %r8, %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L21 .balign 16 L20: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L21: cmp $6, %rdx jae L20 cmp $0, %rdx jbe L22 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L24 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L25 L24: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L26 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L28 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L30 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L31 L30: L31: jmp L29 L28: L29: jmp L27 L26: L27: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L25: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L23 L22: L23: mov %rsi, %r15 cmp %rcx, %rsi jbe L32 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L34 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L35 L34: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L35: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L33 L32: L33: mov %rax, %rcx mov $0, %r11 mov %rsi, %r13 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm8, 0(%rcx) L19: jmp L17 L16: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx cmp $12, %rsi jne L36 movdqu 0(%r8), %xmm0 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm1 mov $283686952306183, %rax pinsrq $1, %rax, %xmm1 pshufb %xmm1, %xmm0 mov $1, %rax pinsrd $0, %eax, %xmm0 movdqu %xmm0, 0(%rcx) jmp L37 L36: mov %rcx, %rax add $32, %r9 mov %r8, %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L39 .balign 16 L38: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L39: cmp $6, %rdx jae L38 cmp $0, %rdx jbe L40 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L42 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L43 L42: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L44 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L46 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L48 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L49 L48: L49: jmp L47 L46: L47: jmp L45 L44: L45: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L43: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L41 L40: L41: mov %rsi, %r15 cmp %rcx, %rsi jbe L50 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L52 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L53 L52: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L53: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L51 L50: L51: mov %rax, %rcx mov $0, %r11 mov %rsi, %r13 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm8, 0(%rcx) L37: pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 L17: ret .global gcm128_encrypt_opt gcm128_encrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L55 .balign 16 L54: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L55: cmp $6, %rdx jae L54 cmp $0, %rdx jbe L56 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L58 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L59 L58: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L60 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L62 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L64 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L65 L64: L65: jmp L63 L62: L63: jmp L61 L60: L61: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L59: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L57 L56: L57: mov %rsi, %r15 cmp %rcx, %rsi jbe L66 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L68 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L69 L68: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L69: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L67 L66: L67: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L70 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L71 L70: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rsi), %r14 movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L72 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L73 L72: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L73: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 movdqu 32(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi vpshufb %xmm0, %xmm9, %xmm8 vpshufb %xmm0, %xmm10, %xmm2 movdqu %xmm8, 112(%rbp) vpshufb %xmm0, %xmm11, %xmm4 movdqu %xmm2, 96(%rbp) vpshufb %xmm0, %xmm12, %xmm5 movdqu %xmm4, 80(%rbp) vpshufb %xmm0, %xmm13, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm14, %xmm7 movdqu %xmm6, 48(%rbp) movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L74 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L75 L74: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L75: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 movdqu 32(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi sub $12, %rdx movdqu 32(%rbp), %xmm8 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) jmp L77 .balign 16 L76: add $6, %rbx cmp $256, %rbx jb L78 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L79 L78: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L79: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx add $96, %r14 cmp $0, %rdx jbe L80 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L81 L80: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L81: .balign 16 L77: cmp $0, %rdx ja L76 movdqu 32(%rbp), %xmm7 movdqu %xmm1, 32(%rbp) pxor %xmm4, %xmm4 movdqu %xmm4, 16(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm0 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm0 movdqu %xmm9, -96(%rsi) vpshufb %xmm0, %xmm9, %xmm9 vpxor %xmm7, %xmm1, %xmm1 movdqu %xmm10, -80(%rsi) vpshufb %xmm0, %xmm10, %xmm10 movdqu %xmm11, -64(%rsi) vpshufb %xmm0, %xmm11, %xmm11 movdqu %xmm12, -48(%rsi) vpshufb %xmm0, %xmm12, %xmm12 movdqu %xmm13, -32(%rsi) vpshufb %xmm0, %xmm13, %xmm13 movdqu %xmm14, -16(%rsi) vpshufb %xmm0, %xmm14, %xmm14 pxor %xmm4, %xmm4 movdqu %xmm14, %xmm7 movdqu %xmm4, 16(%rbp) movdqu %xmm13, 48(%rbp) movdqu %xmm12, 64(%rbp) movdqu %xmm11, 80(%rbp) movdqu %xmm10, 96(%rbp) movdqu %xmm9, 112(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 sub $128, %rcx L71: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L83 .balign 16 L82: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L83: cmp %rdx, %rbx jne L82 mov %rdi, %r11 jmp L85 .balign 16 L84: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L85: cmp $6, %rdx jae L84 cmp $0, %rdx jbe L86 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L88 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L89 L88: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L90 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L92 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L94 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L95 L94: L95: jmp L93 L92: L93: jmp L91 L90: L91: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L89: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L87 L86: L87: add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L96 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%rax), %xmm4 pxor %xmm4, %xmm0 movdqu %xmm0, 0(%rax) cmp $8, %r10 jae L98 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L99 L98: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L99: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L97 L96: L97: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu %xmm8, 0(%r15) pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global gcm256_encrypt_opt gcm256_encrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L101 .balign 16 L100: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L101: cmp $6, %rdx jae L100 cmp $0, %rdx jbe L102 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L104 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L105 L104: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L106 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L108 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L110 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L111 L110: L111: jmp L109 L108: L109: jmp L107 L106: L107: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L105: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L103 L102: L103: mov %rsi, %r15 cmp %rcx, %rsi jbe L112 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L114 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L115 L114: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L115: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L113 L112: L113: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L116 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L117 L116: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rsi), %r14 movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L118 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L119 L118: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L119: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 80(%rcx), %xmm15 movdqu 96(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi vpshufb %xmm0, %xmm9, %xmm8 vpshufb %xmm0, %xmm10, %xmm2 movdqu %xmm8, 112(%rbp) vpshufb %xmm0, %xmm11, %xmm4 movdqu %xmm2, 96(%rbp) vpshufb %xmm0, %xmm12, %xmm5 movdqu %xmm4, 80(%rbp) vpshufb %xmm0, %xmm13, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm14, %xmm7 movdqu %xmm6, 48(%rbp) movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L120 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L121 L120: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L121: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 80(%rcx), %xmm15 movdqu 96(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi sub $12, %rdx movdqu 32(%rbp), %xmm8 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) jmp L123 .balign 16 L122: add $6, %rbx cmp $256, %rbx jb L124 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L125 L124: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L125: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 48(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 64(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 80(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 96(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx add $96, %r14 cmp $0, %rdx jbe L126 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L127 L126: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L127: .balign 16 L123: cmp $0, %rdx ja L122 movdqu 32(%rbp), %xmm7 movdqu %xmm1, 32(%rbp) pxor %xmm4, %xmm4 movdqu %xmm4, 16(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm0 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm0 movdqu %xmm9, -96(%rsi) vpshufb %xmm0, %xmm9, %xmm9 vpxor %xmm7, %xmm1, %xmm1 movdqu %xmm10, -80(%rsi) vpshufb %xmm0, %xmm10, %xmm10 movdqu %xmm11, -64(%rsi) vpshufb %xmm0, %xmm11, %xmm11 movdqu %xmm12, -48(%rsi) vpshufb %xmm0, %xmm12, %xmm12 movdqu %xmm13, -32(%rsi) vpshufb %xmm0, %xmm13, %xmm13 movdqu %xmm14, -16(%rsi) vpshufb %xmm0, %xmm14, %xmm14 pxor %xmm4, %xmm4 movdqu %xmm14, %xmm7 movdqu %xmm4, 16(%rbp) movdqu %xmm13, 48(%rbp) movdqu %xmm12, 64(%rbp) movdqu %xmm11, 80(%rbp) movdqu %xmm10, 96(%rbp) movdqu %xmm9, 112(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 sub $128, %rcx L117: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L129 .balign 16 L128: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L129: cmp %rdx, %rbx jne L128 mov %rdi, %r11 jmp L131 .balign 16 L130: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L131: cmp $6, %rdx jae L130 cmp $0, %rdx jbe L132 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L134 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L135 L134: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L136 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L138 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L140 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L141 L140: L141: jmp L139 L138: L139: jmp L137 L136: L137: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L135: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L133 L132: L133: add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L142 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%rax), %xmm4 pxor %xmm4, %xmm0 movdqu %xmm0, 0(%rax) cmp $8, %r10 jae L144 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L145 L144: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L145: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L143 L142: L143: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu %xmm8, 0(%r15) pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global gcm128_decrypt_opt gcm128_decrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L147 .balign 16 L146: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L147: cmp $6, %rdx jae L146 cmp $0, %rdx jbe L148 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L150 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L151 L150: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L152 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L154 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L156 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L157 L156: L157: jmp L155 L154: L155: jmp L153 L152: L153: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L151: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L149 L148: L149: mov %rsi, %r15 cmp %rcx, %rsi jbe L158 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L160 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L161 L160: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L161: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L159 L158: L159: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L162 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L163 L162: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rdi), %r14 movdqu 32(%rbp), %xmm8 movdqu 80(%rdi), %xmm7 movdqu 64(%rdi), %xmm4 movdqu 48(%rdi), %xmm5 movdqu 32(%rdi), %xmm6 vpshufb %xmm0, %xmm7, %xmm7 movdqu 16(%rdi), %xmm2 vpshufb %xmm0, %xmm4, %xmm4 movdqu 0(%rdi), %xmm3 vpshufb %xmm0, %xmm5, %xmm5 movdqu %xmm4, 48(%rbp) vpshufb %xmm0, %xmm6, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm2, %xmm2 movdqu %xmm6, 80(%rbp) vpshufb %xmm0, %xmm3, %xmm3 movdqu %xmm2, 96(%rbp) movdqu %xmm3, 112(%rbp) pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) cmp $6, %rdx jne L164 sub $96, %r14 jmp L165 L164: L165: jmp L167 .balign 16 L166: add $6, %rbx cmp $256, %rbx jb L168 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L169 L168: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L169: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx cmp $6, %rdx jbe L170 add $96, %r14 jmp L171 L170: L171: cmp $0, %rdx jbe L172 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L173 L172: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L173: .balign 16 L167: cmp $0, %rdx ja L166 movdqu %xmm1, 32(%rbp) movdqu %xmm9, -96(%rsi) movdqu %xmm10, -80(%rsi) movdqu %xmm11, -64(%rsi) movdqu %xmm12, -48(%rsi) movdqu %xmm13, -32(%rsi) movdqu %xmm14, -16(%rsi) sub $128, %rcx L163: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 mov %rdi, %rbx mov %rdx, %r12 mov %rax, %rdi mov %rdi, %r11 jmp L175 .balign 16 L174: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L175: cmp $6, %rdx jae L174 cmp $0, %rdx jbe L176 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L178 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L179 L178: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L180 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L182 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L184 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L185 L184: L185: jmp L183 L182: L183: jmp L181 L180: L181: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L179: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L177 L176: L177: mov %rbx, %rdi mov %r12, %rdx pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L187 .balign 16 L186: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L187: cmp %rdx, %rbx jne L186 add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L188 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu 0(%rax), %xmm0 movdqu %xmm0, %xmm10 cmp $8, %r10 jae L190 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L191 L190: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L191: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm10 movdqu %xmm10, 0(%rax) jmp L189 L188: L189: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu 0(%r15), %xmm0 pcmpeqd %xmm8, %xmm0 pextrq $0, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rax adc $0, %rax pextrq $1, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rdx adc $0, %rdx add %rdx, %rax mov %rax, %rcx pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 mov %rcx, %rax ret .global gcm256_decrypt_opt gcm256_decrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L193 .balign 16 L192: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L193: cmp $6, %rdx jae L192 cmp $0, %rdx jbe L194 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L196 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L197 L196: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L198 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L200 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L202 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L203 L202: L203: jmp L201 L200: L201: jmp L199 L198: L199: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L197: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L195 L194: L195: mov %rsi, %r15 cmp %rcx, %rsi jbe L204 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L206 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L207 L206: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L207: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L205 L204: L205: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L208 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L209 L208: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rdi), %r14 movdqu 32(%rbp), %xmm8 movdqu 80(%rdi), %xmm7 movdqu 64(%rdi), %xmm4 movdqu 48(%rdi), %xmm5 movdqu 32(%rdi), %xmm6 vpshufb %xmm0, %xmm7, %xmm7 movdqu 16(%rdi), %xmm2 vpshufb %xmm0, %xmm4, %xmm4 movdqu 0(%rdi), %xmm3 vpshufb %xmm0, %xmm5, %xmm5 movdqu %xmm4, 48(%rbp) vpshufb %xmm0, %xmm6, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm2, %xmm2 movdqu %xmm6, 80(%rbp) vpshufb %xmm0, %xmm3, %xmm3 movdqu %xmm2, 96(%rbp) movdqu %xmm3, 112(%rbp) pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) cmp $6, %rdx jne L210 sub $96, %r14 jmp L211 L210: L211: jmp L213 .balign 16 L212: add $6, %rbx cmp $256, %rbx jb L214 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L215 L214: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L215: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 48(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 64(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 80(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 96(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx cmp $6, %rdx jbe L216 add $96, %r14 jmp L217 L216: L217: cmp $0, %rdx jbe L218 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L219 L218: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L219: .balign 16 L213: cmp $0, %rdx ja L212 movdqu %xmm1, 32(%rbp) movdqu %xmm9, -96(%rsi) movdqu %xmm10, -80(%rsi) movdqu %xmm11, -64(%rsi) movdqu %xmm12, -48(%rsi) movdqu %xmm13, -32(%rsi) movdqu %xmm14, -16(%rsi) sub $128, %rcx L209: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 mov %rdi, %rbx mov %rdx, %r12 mov %rax, %rdi mov %rdi, %r11 jmp L221 .balign 16 L220: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L221: cmp $6, %rdx jae L220 cmp $0, %rdx jbe L222 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L224 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L225 L224: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L226 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L228 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L230 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L231 L230: L231: jmp L229 L228: L229: jmp L227 L226: L227: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L225: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L223 L222: L223: mov %rbx, %rdi mov %r12, %rdx pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L233 .balign 16 L232: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L233: cmp %rdx, %rbx jne L232 add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L234 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu 0(%rax), %xmm0 movdqu %xmm0, %xmm10 cmp $8, %r10 jae L236 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L237 L236: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L237: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm10 movdqu %xmm10, 0(%rax) jmp L235 L234: L235: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu 0(%r15), %xmm0 pcmpeqd %xmm8, %xmm0 pextrq $0, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rax adc $0, %rax pextrq $1, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rdx adc $0, %rdx add %rdx, %rax mov %rax, %rcx pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 mov %rcx, %rax ret .section .note.GNU-stack,"",%progbits